BERICHT über den Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union

22.5.2023 - (COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD)) - ***I

Ausschuss für Binnenmarkt und Verbraucherschutz

Ausschuss für bürgerliche Freiheiten, Justiz und Inneres
Berichterstatter: Brando Benifei, Ioan-Dragoş Tudorache
(Gemeinsames Ausschussverfahren – Artikel 58 der Geschäftsordnung)
Verfasser der Stellungnahmen der assoziierten Ausschüsse gemäß Artikel 57 der Geschäftsordnung:
Eva Maydell, Ausschuss für Industrie, Forschung und Energie
Marcel Kolaja, Ausschuss für Kultur und Bildung
Axel Voss, Rechtsausschuss
PR_COD_1amCom


Verfahren : 2021/0106(COD)
Werdegang im Plenum
Entwicklungsstadium in Bezug auf das Dokument :  
A9-0188/2023

ENTWURF EINER LEGISLATIVEN ENTSCHLIESSUNG DES EUROPÄISCHEN PARLAMENTS

zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union

(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))

(Ordentliches Gesetzgebungsverfahren: erste Lesung)

Das Europäische Parlament,

 unter Hinweis auf den Vorschlag der Kommission an das Europäische Parlament und den Rat (COM(2021)0206),

 gestützt auf Artikel 294 Absatz 2 sowie Artikel 16 und Artikel 114 des Vertrags über die Arbeitsweise der Europäischen Union, auf deren Grundlage ihm der Vorschlag der Kommission unterbreitet wurde (C9‑0146/2021),

 gestützt auf Artikel 294 Absatz 3 des Vertrags über die Arbeitsweise der Europäischen Union,

 gestützt auf Artikel 59 seiner Geschäftsordnung,

 unter Hinweis auf die gemeinsamen Beratungen des Ausschusses für Binnenmarkt und Verbraucherschutz und des Ausschusses für bürgerliche Freiheiten, Justiz und Inneres gemäß Artikel 58 der Geschäftsordnung,

 unter Hinweis auf die Stellungnahmen des Ausschusses für Industrie, Forschung und Energie, des Ausschusses für Kultur und Bildung, des Rechtsausschusses, des Ausschusses für Umweltfragen, öffentliche Gesundheit und Lebensmittelsicherheit und des Ausschusses für Verkehr und Tourismus,

 unter Hinweis auf den Bericht des Ausschusses für Binnenmarkt und Verbraucherschutz und des Ausschusses für bürgerliche Freiheiten, Justiz und Inneres (A9-0188/2023),

1. legt den folgenden Standpunkt in erster Lesung fest;

2. fordert die Kommission auf, es erneut zu befassen, falls sie ihren Vorschlag ersetzt, entscheidend ändert oder beabsichtigt, ihn entscheidend zu ändern;

3. beauftragt seine Präsidentin, den Standpunkt des Parlaments dem Rat und der Kommission sowie den nationalen Parlamenten zu übermitteln.


 

Änderungsantrag  1

 

Vorschlag für eine Verordnung

Bezugsvermerk 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

unter Hinweis auf die Stellungnahme der Europäischen Zentralbank,

Änderungsantrag  2

 

Vorschlag für eine Verordnung

Bezugsvermerk 4 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

unter Hinweis auf die gemeinsame Stellungnahme des Europäischen Datenschutzausschusses und des Europäischen Datenschutzbeauftragten,

Änderungsantrag  3

 

Vorschlag für eine Verordnung

Erwägung 1

 

Vorschlag der Kommission

Geänderter Text

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union festgelegt wird. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit und der Grundrechte, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

(1) Zweck dieser Verordnung ist es, die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz zu fördern und ein hohes Maß an Schutz der Gesundheit, der Sicherheit, der Grundrechte, der Demokratie und der Rechtsstaatlichkeit sowie der Umwelt vor schädlichen Auswirkungen von Systemen der künstlichen Intelligenz in der Union sicherzustellen und gleichzeitig die Innovation zu fördern und das Funktionieren des Binnenmarktes zu verbessern. Diese Verordnung legt einen einheitlichen Rechtsrahmen insbesondere für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union fest und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von Systemen künstlicher Intelligenz (KI-Systemen) beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird. Bestimmte KI-Systeme können auch Auswirkungen auf die Demokratie und Rechtsstaatlichkeit sowie die Umwelt haben. Diese Bedenken werden in den kritischen Sektoren speziell angegangen und in den Anhängen dieser Verordnung sind Anwendungsfälle aufgeführt.

Änderungsantrag  4

 

Vorschlag für eine Verordnung

Erwägung 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Diese Verordnung soll die Werte der Union wahren, dazu beitragen, dass die mit der KI verbundenen Vorteile der gesamten Gesellschaft zugutekommen, Einzelpersonen, Unternehmen, Demokratie und Rechtsstaatlichkeit sowie die Umwelt vor Risiken schützen und zugleich Innovation und Beschäftigung fördern und der Union eine Führungsrolle in diesem Bereich verschaffen.

Änderungsantrag  5

 

Vorschlag für eine Verordnung

Erwägung 2

 

Vorschlag der Kommission

Geänderter Text

(2) Systeme der künstlichen Intelligenz (KI-Systeme) können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit künstliche Intelligenz sicher ist und unter Einhaltung der Grundrechte entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und würden die Rechtssicherheit für Akteure, die KI-Systeme entwickeln oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, wobei Unterschiede, die den freien Verkehr von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Verpflichtungen auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird. Soweit diese Verordnung konkrete Vorschriften zum Schutz von Privatpersonen im Hinblick auf die Verarbeitung personenbezogener Daten enthält, mit denen vor allem die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eingeschränkt wird, sollte sich diese Verordnung in Bezug auf diese konkreten Vorschriften auch auf Artikel 16 AEUV stützen. Angesichts dieser konkreten Vorschriften und des Rückgriffs auf Artikel 16 AEUV ist es angezeigt, den Europäischen Datenschutzausschuss zu konsultieren.

(2) KI-Systeme können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit künstliche Intelligenz vertrauenswürdig und sicher ist und unter Einhaltung der Grundrechte entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und würden die Rechtssicherheit für Akteure, die KI-Systeme entwickeln oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, um eine vertrauenswürdige KI zu erreichen, wobei Unterschiede, die den freien Verkehr, Innovationen, den Einsatz und die Verbreitung von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Verpflichtungen auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird.

Änderungsantrag  6

 

Vorschlag für eine Verordnung

Erwägung 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Da künstliche Intelligenz oft auf die Verarbeitung großer Datenmengen angewiesen ist und viele KI-Systeme und -Anwendungen auf der Verarbeitung personenbezogener Daten beruhen, sollte sich diese Verordnung auch auf Artikel 16 AEUV stützen, in dem das Recht auf den Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten verankert ist und der den Erlass von Vorschriften zum Schutz von Privatpersonen im Hinblick auf die Verarbeitung personenbezogener Daten vorsieht.

Änderungsantrag  7

 

Vorschlag für eine Verordnung

Erwägung 2 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2b) Das Grundrecht auf Schutz personenbezogener Daten wird insbesondere durch die Verordnungen (EU) 2016/679 und (EU) 2018/1725 und die Richtlinie (EU) 2016/680 gewahrt. Die Richtlinie 2002/58/EG schützt darüber hinaus die Privatsphäre und die Vertraulichkeit der Kommunikation und enthält Bedingungen für die Speicherung personenbezogener und nicht personenbezogener Daten auf Endgeräten und den Zugang dazu. Diese Rechtsakte bieten die Grundlage für eine nachhaltige und verantwortungsvolle Datenverarbeitung, auch wenn Datensätze eine Mischung aus personenbezogenen und nicht personenbezogenen Daten enthalten. Die Verordnung soll die Anwendung des bestehenden Unionsrechts zur Verarbeitung personenbezogener Daten, einschließlich der Aufgaben und Befugnisse der unabhängigen Aufsichtsbehörden, die für die Überwachung der Einhaltung dieser Instrumente zuständig sind, nicht berühren. Die Grundrechte auf Privatleben und den Schutz personenbezogener Daten, wie sie im Unionsrecht zum Datenschutz und zur Privatsphäre vorgesehen und in der Charta der Grundrechte der Europäischen Union (die „Charta“) verankert sind, werden von der Verordnung nicht berührt.

Änderungsantrag  8

 

Vorschlag für eine Verordnung

Erwägung 2 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2c) Systeme der künstlichen Intelligenz unterliegen in der Union den einschlägigen Rechtsvorschriften zur Produktsicherheit, durch die ein Rahmen bereitgestellt wird, durch den Verbraucher vor gefährlichen Produkten im Allgemeinen geschützt werden, wobei solche Rechtsvorschriften weiterhin gelten sollten. Diese Verordnung lässt die Vorschriften, die in anderen Rechtsakten der Union zur Regelung des Verbraucherschutzes und der Produktsicherheit festgelegt sind, insbesondere in der Verordnung (EU) 2017/2394, der Verordnung (EU) 2019/1020 und der Richtlinie 2001/95/EG über die allgemeine Produktsicherheit sowie der Richtlinie 2013/11/EU, unberührt.

Änderungsantrag  9

 

Vorschlag für eine Verordnung

Erwägung 2 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2d) In Übereinstimmung mit Artikel 114 Absatz 2 AEUV dient diese Verordnung als Ergänzung und sollte nicht die Rechte und Interessen von Arbeitnehmern beeinträchtigen. Diese Verordnung sollte daher nicht das Unionsrecht im Bereich der Sozialpolitik und die nationalen Arbeitsrechtsvorschriften und -gepflogenheiten berühren, d. h. jegliche gesetzlichen und vertraglichen Vorschriften über Beschäftigungs- und Arbeitsbedingungen, einschließlich der Gesundheit und Sicherheit am Arbeitsplatz sowie der Beziehung zwischen Arbeitgeber und Arbeitnehmer, einschließlich Unterrichtung, Anhörung und Beteiligung. Diese Verordnung sollte die Ausübung der in den Mitgliedstaaten und auf Unionsebene anerkannten Grundrechte, einschließlich des Rechts oder der Freiheit zum Streik oder zur Durchführung anderer Maßnahmen, die im Rahmen der spezifischen Systeme der Mitgliedstaaten im Bereich der Arbeitsbeziehungen nach ihren nationalen Rechtsvorschriften und/oder Gepflogenheiten vorgesehen sind, nicht beeinträchtigen. Sie sollte auch nicht die Konzertierungspraktiken und das Recht berühren, im Einklang mit den nationalen Rechtsvorschriften und/oder Gepflogenheiten Tarifverträge auszuhandeln, abzuschließen und durchzusetzen oder kollektive Maßnahmen zu ergreifen. Keinesfalls sollte sie die Kommission daran hindern, spezifische Rechtsvorschriften zu den Rechten und Freiheiten der Beschäftigten, die von KI-Systemen betroffen sind, vorzuschlagen.

 

Änderungsantrag  10

 

Vorschlag für eine Verordnung

Erwägung 2 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2e) Diese Verordnung sollte die in der Richtlinie ... [COD 2021/414/EG] zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit enthaltenen Bestimmungen nicht berühren.

 

Änderungsantrag  11

 

Vorschlag für eine Verordnung

Erwägung 2 f (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2f) Diese Verordnung sollte dazu beitragen, Forschung und Innovation zu unterstützen, und sollte Forschungs- und Entwicklungstätigkeiten nicht beeinträchtigen und die Freiheit der wissenschaftlichen Forschung wahren. Daher müssen KI-Systeme, die eigens für den alleinigen Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt werden, vom Anwendungsbereich der Verordnung ausgenommen werden, und es muss sichergestellt werden, dass sich die Verordnung nicht anderweitig auf wissenschaftliche Aktivitäten zur Forschung und Entwicklung in Bezug auf KI-Systeme auswirkt. In jedem Fall sollten jegliche Forschungs- und Entwicklungsaktivitäten in Übereinstimmung mit der Charta der Menschenrechte, dem Unionsrecht sowie den nationalen Rechtsvorschriften ausgeführt werden.

Änderungsantrag  12

 

Vorschlag für eine Verordnung

Erwägung 3

 

Vorschlag der Kommission

Geänderter Text

(3) Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, allgemeine und berufliche Bildung, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz sowie Klimaschutz und Anpassung an den Klimawandel.

(3) Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft, Umwelt und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können – und dies bereits tun –, wenn sie in Übereinstimmung mit den relevanten allgemeinen Grundsätzen entwickelt werden, die der Charta und den Werten, auf denen die Union beruht, entsprechen. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, Lebensmittelsicherheit, allgemeine und berufliche Bildung, Medien, Sport, Kultur, Infrastrukturmanagement, Energie, Verkehr und Logistik, Krisenmanagement, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz, Umweltüberwachung, die Bewahrung und Wiederherstellung der Biodiversität und der Ökosysteme sowie Klimaschutz und Anpassung an den Klimawandel.

Änderungsantrag  13

 

Vorschlag für eine Verordnung

Erwägung 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Um dazu beizutragen, die Klimaneutralitätsziele zu erreichen, sollten europäische Unternehmen versuchen, alle verfügbaren technologischen Fortschritte zu nutzen, die hierbei hilfreich sein können. Künstliche Intelligenz ist eine Technologie, die eingesetzt werden kann, um die stets wachsende Datenmenge zu verarbeiten, die bei den Abläufen in Bereichen wie Wirtschaft, Umwelt und Gesundheit entsteht. Um Investitionen in Analyse- und Optimierungsinstrumente auf KI-Basis zu erleichtern, sollte diese Verordnung eine vorhersagbare und angemessene Umgebung für industrielle Lösungen mit geringem Risiko bereitstellen.

Änderungsantrag  14

 

Vorschlag für eine Verordnung

Erwägung 4

 

Vorschlag der Kommission

Geänderter Text

(4) Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und öffentliche Interessen und Rechte schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein.

(4) Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung sowie der technologischen Entwicklungsstufe Risiken mit sich bringen und öffentliche oder private Interessen und grundlegende Rechte natürlicher Personen schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein, einschließlich physischer, psychischer, gesellschaftlicher oder wirtschaftlicher Schäden.

Änderungsantrag  15

 

Vorschlag für eine Verordnung

Erwägung 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Angesichts der großen Auswirkungen, die künstliche Intelligenz auf die Gesellschaft haben kann, und der Notwendigkeit, Vertrauen aufzubauen, ist es von entscheidender Bedeutung, dass die künstliche Intelligenz und ihr Regulierungsrahmen im Einklang mit den in Artikel 2 EUV verankerten Werten der Union und den in den Verträgen, der Charta und den internationalen Menschenrechtsnormen verankerten Grundrechten und -freiheiten entwickelt werden. Als Voraussetzung sollte künstliche Intelligenz eine menschenzentrierte Technologie sein. Sie soll weder die menschliche Autonomie ersetzen noch den Verlust individueller Freiheit voraussetzen und in erster Linie den Bedürfnissen der Gesellschaft und dem Gemeinwohl dienen. Um die Entwicklung und Nutzung ethisch eingebetteter künstlicher Intelligenz sicherzustellen, die die Werte der Union und die Charta achtet, sollten Garantien vorgesehen werden.

Änderungsantrag  16

 

Vorschlag für eine Verordnung

Erwägung 5

 

Vorschlag der Kommission

Geänderter Text

(5) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie Gesundheit und Sicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Durch die Festlegung dieser Vorschriften unterstützt die Verordnung das vom Europäischen Rat33 formulierte Ziel der Union, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament34 ausdrücklich geforderten Schutz von Ethikgrundsätzen.

(5) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie den Schutz der Grundrechte, der Demokratie, der Rechtsstaatlichkeit, der Umwelt, der Gesundheit und Sicherheit zu gewährleisten, wie sie durch das Unionsrecht anerkannt und geschützt werden. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Verwendung bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Diese Regeln sollten klar und robust sein, um die Grundrechte zu schützen, neue innovative Lösungen zu unterstützen und ein europäisches Ökosystem öffentlicher und privater Akteure zu ermöglichen, die KI-Systeme im Einklang mit den Werten der Union entwickeln. Durch die Festlegung dieser Vorschriften sowie durch Maßnahmen zur Unterstützung der Innovation mit besonderem Augenmerk auf KMU und Start-up-Unternehmen unterstützt die Verordnung das vom Europäischen Rat33 formulierte Ziel der Union, in Europa hergestellte KI zu fördern und bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament34 ausdrücklich geforderten Schutz von Ethikgrundsätzen.

__________________

__________________

33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.

33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.

34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).

34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).

Änderungsantrag  17

 

Vorschlag für eine Verordnung

Erwägung 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Darüber hinaus muss sich die Union – um die Entwicklung von KI-Systemen gemäß den Werten der Union zu fördern – den Hauptlücken und Hindernissen widmen, die das Potenzial des digitalen Wandels hemmen, wobei hier etwa der Mangel an in der Digitalisierung geschulten Arbeitskräften, Bedenken zur Internetsicherheit, zu wenige und zu geringer Zugang zu Investitionen sowie bestehende und potenzielle Lücken zwischen großen Unternehmen, KMU und Start-ups zu nennen sind. Dabei sollte besondere Aufmerksamkeit darauf gelegt werden, dass alle Regionen der Union von den Vorteilen der KI und von Innovationen in den neuen Technologien profitieren und dass ausreichende Investitionen und Ressourcen bereitgestellt werden, vor allem für Regionen, die in einigen Bereichen der Digitalisierung noch viel aufzuholen haben.

Änderungsantrag  18

 

Vorschlag für eine Verordnung

Erwägung 6

 

Vorschlag der Kommission

Geänderter Text

(6) Der Begriff „KI-System“ sollte klar definiert werden, um Rechtssicherheit zu gewährleisten und gleichzeitig genügend Flexibilität zu bieten, um künftigen technologischen Entwicklungen Rechnung zu tragen. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen der Software beruhen, insbesondere darauf, dass sie im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren, sei es physisch oder digital. KI-Systeme können so konzipiert sein, dass sie mit verschiedenen Graden der Autonomie arbeiten und eigenständig oder als Bestandteil eines Produkts verwendet werden können, unabhängig davon, ob das System physisch in das Produkt integriert ist (eingebettet) oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet). Die Bestimmung des Begriffs „KI-System“ sollte durch eine Liste spezifischer Techniken und Konzepte für seine Entwicklung ergänzt werden, die im Lichte der Marktentwicklungen und der technischen Entwicklungen auf dem neuesten Stand gehalten werden sollte, indem die Kommission delegierte Rechtsakte zur Änderung dieser Liste erlässt.

(6) Der Begriff „KI-System“ in dieser Verordnung sollte klar definiert und eng mit der Tätigkeit internationaler Organisationen abgestimmt werden, die sich mit künstlicher Intelligenz befassen, um Rechtssicherheit, Harmonisierung und hohe Akzeptanz sicherzustellen und gleichzeitig genügend Flexibilität zu bieten, um künftigen, rapiden technologischen Entwicklungen in diesem Bereich Rechnung zu tragen. Darüber hinaus sollte die Begriffsbestimmung auf den wesentlichen Merkmalen der künstlichen Intelligenz wie ihren Lern-, Schlussfolgerungs- oder Modellierungsfähigkeiten beruhen und sie von einfacheren Softwaresystemen und Programmierungsansätzen abgrenzen. KI‑Systeme sind mit verschiedenen Graden der Autonomie ausgestattet, was bedeutet, dass sie zumindest bis zu einem gewissen Grad unabhängig von menschlicher Kontrolle agieren und in der Lage sind, ohne menschliches Eingreifen zu arbeiten. Die Bezeichnung „maschinenbasiert“ bezieht sich auf die Tatsache, dass KI-Systeme von Maschinen betrieben werden. Durch die Bezugnahme auf explizite oder implizite Ziele wird betont, dass KI-Systeme gemäß expliziten – von Menschen festgelegten – Zielen oder gemäß impliziten Zielen arbeiten können. Die Ziele des KI-Systems können sich – unter bestimmten Umständen – von dem eigentlich vorgesehenen Verwendungszweck unterscheiden. Der Verweis auf Vorhersagen umfasst auch Inhalte, die in dieser Verordnung als eine Form von Vorhersage in Bezug auf eines der möglichen von einem KI-System generierten Ergebnisse hervorgebracht werden. Für die Zwecke dieser Verordnung sollten „Umgebungen“ als Kontexte verstanden werden, in denen KI-Systeme betrieben werden, während die von einem KI-System erzeugten Inhalte – also Vorhersagen, Empfehlungen oder Entscheidungen – auf der Grundlage von Eingaben aus dem genannten Umfeld als Reaktion auf die Ziele des Systems entstehen. Durch solche Ergebnisse wird das genannte Umfeld wiederum beeinflusst, auch dadurch, dass ihm neue Informationen zugeführt werden.

Änderungsantrag  19

 

Vorschlag für eine Verordnung

Erwägung 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) KI-Systeme verfügen oft über Funktionen zum maschinellen Lernen, durch die es ihnen möglich ist, sich anzupassen und neue Aufgaben autonom auszuführen. Der Begriff „maschinelles Lernen“ bezieht sich auf den Rechenvorgang, bei dem die Parameter eines Modells auf der Grundlage von Daten optimiert werden, wobei es sich um ein mathematisches Konstrukt handelt, bei dem Ergebnisse auf der Grundlage von Eingabedaten erzeugt werden. Zu den Konzepten des maschinellen Lernens gehören z. B. beaufsichtigtes oder unbeaufsichtigtes und bestärkendes Lernen unter Verwendung einer Palette von Methoden, einschließlich des tiefen Lernens (Deep Learning) auf der Grundlage von neuronalen Netzwerken. Ziel dieser Verordnung ist es, bestimmte potenzielle Risiken anzugehen, die dadurch entstehen können, dass die Kontrolle über KI-Systeme übertragen wird, insbesondere wenn die Kontrolle auf KI-Systeme übertragen wird, die sich nach der Einführung des Systems entwickeln. Die Funktionen und Ergebnisse vieler dieser KI-Systeme beruhen auf abstrakten mathematischen Beziehungen, die für Menschen schwer zu verstehen und zu überwachen sind bzw. schwer auf spezifische Eingaben zurückzuführen sind. Diese komplexen und undurchsichtigen Merkmale („Black-Box-Elemente“) haben Auswirkungen auf die Zurechenbarkeit und Erklärbarkeit. Vergleichsweise einfachere Techniken, wie zum Beispiel wissensgestützte Konzepte, Bayessche Schätzungen oder Entscheidungsbäume können auch zu Rechtslücken führen, die durch diese Verordnung angegangen werden müssen, insbesondere, wenn sie in Verbindung mit Konzepten des maschinellen Lernens in hybriden Systemen verwendet werden.

 

Änderungsantrag  20

 

Vorschlag für eine Verordnung

Erwägung 6 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6b) KI-Systeme können als eigenständige Softwaresysteme verwendet werden, in ein physisches Produkt integriert (eingebettet) werden, der Funktion eines physischen Produkts dienen, ohne darin integriert zu sein (nicht eingebettet), oder als KI-Komponente eines größeren Systems verwendet werden. Wenn dieses größere System ohne die genannte KI-Komponente nicht funktionsfähig wäre, dann sollte das gesamte größere System im Rahmen dieser Verordnung als ein einziges KI-System angesehen werden.

Änderungsantrag  21

 

Vorschlag für eine Verordnung

Erwägung 7

 

Vorschlag der Kommission

Geänderter Text

(7) Der in dieser Verordnung verwendete Begriff „biometrische Daten“ steht im Einklang mit dem Begriff „biometrische Daten“ im Sinne von Artikel 4 Nummer 14 der Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates35, Artikel 3 Nummer 18 der Verordnung (EU) 2018/1725 des Europäischen Parlaments und des Rates36 und Artikel 3 Nummer 13 der Richtlinie (EU) 2016/680 des Europäischen Parlaments und des Rates37 und sollte im Einklang damit ausgelegt werden.

(7) Der in dieser Verordnung verwendete Begriff „biometrische Daten“ steht im Einklang mit dem Begriff „biometrische Daten“ im Sinne von Artikel 4 Nummer 14 der Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates35. „Biometrische Daten“ sind zusätzliche Daten, die sich aus der spezifischen technischen Verarbeitung physischer, physiologischer oder verhaltensbezogener Signale einer natürlichen Person ergeben, wie Gesichtsausdruck, Bewegungen, Pulsfrequenz, Stimme, Tastenanschlag oder Gang, die die eindeutige Identifizierung einer natürlichen Person ermöglichen oder bestätigen können.

__________________

__________________

35 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), (ABl. L 119 vom 4.5.2016, S. 1).

35 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), (ABl. L 119 vom 4.5.2016, S. 1).

36 Verordnung (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG (ABl. L 295 vom 21.11.2018, S. 39).

 

37 Richtlinie (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates (Richtlinie zum Datenschutz bei der Strafverfolgung) (ABl. L 119 vom 4.5.2016, S. 89).

 

Änderungsantrag  22

 

Vorschlag für eine Verordnung

Erwägung 7 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(7a)  Der Begriff „biometrische Identifizierung“ sollte gemäß dieser Verordnung als automatische Erkennung physischer, physiologischer, verhaltensbezogener und psychischer menschlicher Merkmale wie Gesicht, Augenbewegungen, Gesichtsausdruck, Körperform, Stimme, Sprache, Gang, Haltung, Herzfrequenz, Blutdruck, Geruch, Tastenanschläge, psychologische Reaktionen (Wut, Kummer, Trauer usw.) zum Zweck der Überprüfung der Identität einer Person durch Abgleich der biometrischen Daten der entsprechenden Person mit den in einer Datenbank gespeicherten biometrischen Daten (1:n-Identifizierung) definiert werden, unabhängig davon, ob die Einzelperson ihre Zustimmung dazu gegeben hat oder nicht.

Änderungsantrag  23

 

Vorschlag für eine Verordnung

Erwägung 7 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(7b) Der Begriff „biometrische Kategorisierung“ im Sinne dieser Verordnung sollte die Zuordnung natürlicher Personen zu bestimmten Kategorien oder die Ableitung ihrer Merkmale und Attribute wie soziales Geschlecht, Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierung, ethnische oder soziale Herkunft, Gesundheit, mentale oder körperliche Fähigkeiten, Persönlichkeits- oder Charaktermerkmale, Sprache, Religion oder Zugehörigkeit zu einer nationalen Minderheit oder sexuelle oder politische Ausrichtung auf der Grundlage ihrer biometrischen oder biometriegestützten Daten oder von Daten, die aus diesen Daten abgeleitet werden können, bezeichnen.

Änderungsantrag  24

 

Vorschlag für eine Verordnung

Erwägung 8

 

Vorschlag der Kommission

Geänderter Text

(8) Der in dieser Verordnung verwendete Begriff „biometrisches Fernidentifizierungssystem“ sollte funktional definiert werden als KI-System, das dem Zweck dient, natürliche Personen aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, ohne dass der Nutzer des KI-Systems vorher weiß, ob die Person anwesend sein wird und identifiziert werden kann, und unabhängig davon, welche Technik, Verfahren oder Arten biometrischer Daten dazu verwendet werden. Angesichts ihrer unterschiedlichen Merkmale und Einsatzformen sowie der unterschiedlichen Risiken, die mit ihnen verbunden sind, sollte zwischen biometrischen Echtzeit-Fernidentifizierungssystemen und Systemen zur nachträglichen biometrischen Fernidentifizierung unterschieden werden. Bei „Echtzeit-Systemen“ erfolgen die Erfassung der biometrischen Daten, der Abgleich und die Identifizierung unverzüglich, zeitnah oder auf jeden Fall ohne erhebliche Verzögerung. In diesem Zusammenhang sollte es keinen Spielraum für eine Umgehung der Bestimmungen dieser Verordnung über die „Echtzeit-Nutzung“ der betreffenden KI-Systeme geben, indem kleinere Verzögerungen vorgesehen werden. „Echtzeit-Systeme“ umfassen die Verwendung von „Live-Material“ oder „Near-live-Material“ wie Videoaufnahmen, die von einer Kamera oder einem anderen Gerät mit ähnlicher Funktion erzeugt werden. Bei Systemen zur nachträglichen Identifizierung hingegen wurden die biometrischen Daten schon zuvor erfasst und der Abgleich und die Identifizierung erfolgen erst mit erheblicher Verzögerung. Dabei handelt es sich um Material wie Bild- oder Videoaufnahmen, die von Video-Überwachungssystemen oder privaten Geräten vor der Anwendung des KI-Systems auf die betroffenen natürlichen Personen erzeugt wurden.

(8) Der in dieser Verordnung verwendete Begriff „biometrisches Fernidentifizierungssystem“ sollte funktional definiert werden als KI-System, das dem Zweck dient, natürliche Personen aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, ohne dass der Nutzer des KI-Systems vorher weiß, ob die Person anwesend sein wird und identifiziert werden kann, und unabhängig davon, welche Technik, Verfahren oder Arten biometrischer Daten dazu verwendet werden, mit Ausnahme von Verifizierungssystemen, die nur die biometrischen Daten einer Person mit den in Bezug auf diese Person zuvor gewonnenen biometrischen Daten (eineindeutige Beziehung) vergleichen. Angesichts ihrer unterschiedlichen Merkmale und Einsatzformen sowie der unterschiedlichen Risiken, die mit ihnen verbunden sind, sollte zwischen biometrischen Echtzeit-Fernidentifizierungssystemen und Systemen zur nachträglichen biometrischen Fernidentifizierung unterschieden werden. Bei „Echtzeit-Systemen“ erfolgen die Erfassung der biometrischen Daten, der Abgleich und die Identifizierung unverzüglich, zeitnah oder auf jeden Fall ohne erhebliche Verzögerung. In diesem Zusammenhang sollte es keinen Spielraum für eine Umgehung der Bestimmungen dieser Verordnung über die „Echtzeit-Nutzung“ der betreffenden KI-Systeme geben, indem kleinere Verzögerungen vorgesehen werden. „Echtzeit-Systeme“ umfassen die Verwendung von „Live-Material“ oder „Near-live-Material“ wie Videoaufnahmen, die von einer Kamera oder einem anderen Gerät mit ähnlicher Funktion erzeugt werden. Bei Systemen zur nachträglichen Identifizierung hingegen wurden die biometrischen Daten schon zuvor erfasst und der Abgleich und die Identifizierung erfolgen erst mit erheblicher Verzögerung. Dabei handelt es sich um Material wie Bild- oder Videoaufnahmen, die von Video-Überwachungssystemen oder privaten Geräten vor der Anwendung des KI-Systems auf die betroffenen natürlichen Personen erzeugt wurden. Angesichts der Tatsache, dass das Konzept der biometrischen Identifizierung unabhängig von der Einwilligung einer Person ist, gilt diese Definition auch, wenn Warnmeldungen an dem Ort angebracht sind, der durch das biometrische Fernidentifizierungssystem überwacht wird, und ist durch die vorige Anmeldung nicht de facto ungültig.

Änderungsantrag  25

 

Vorschlag für eine Verordnung

Erwägung 8 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(8a) Bei der Identifizierung natürlicher Personen aus der Ferne wird zwischen biometrischen Fernidentifizierungssystemen und Systemen zur Überprüfung von Einzelpersonen aus der Nähe unterschieden, die biometrische Identifizierungsinstrumente verwenden und deren einziger Zweck darin besteht, zu bestätigen, ob eine bestimmte natürliche Person, die sich zur Identifizierung vorstellt, beispielsweise berechtigt ist oder nicht, Zugang zu einem Dienst, einem Gerät oder einem Gebäude zu erhalten.

Änderungsantrag  26

 

Vorschlag für eine Verordnung

Erwägung 9

 

Vorschlag der Kommission

Geänderter Text

(9) Für die Zwecke dieser Verordnung sollte der Begriff „öffentlich zugänglicher Raum“ so verstanden werden, dass er sich auf einen der Öffentlichkeit zugänglichen physischen Ort bezieht, unabhängig davon, ob sich der betreffende Ort in privatem oder öffentlichem Eigentum befindet. Daher erfasst der Begriff keine privaten Orte, wie Privathäuser, private Clubs, Büros, Lager und Fabriken, die normalerweise für Dritte, einschließlich Strafverfolgungsbehörden, nicht frei zugänglich sind, es sei denn, diese wurden ausdrücklich eingeladen oder ihr Zugang ausdrücklich erlaubt. Auch Online-Räume werden nicht erfasst, da es sich nicht um physische Räume handelt. Die bloße Tatsache, dass bestimmte Bedingungen für den Zugang zu einem bestimmten Raum gelten können, wie Eintrittskarten oder Altersbeschränkungen, bedeutet jedoch nicht, dass der Raum im Sinne dieser Verordnung nicht öffentlich zugänglich ist. Folglich sind neben öffentlichen Räumen wie Straßen, relevanten Teilen von Regierungsgebäuden und den meisten Verkehrsinfrastrukturen auch Bereiche wie Kinos, Theater, Geschäfte und Einkaufszentren in der Regel öffentlich zugänglich. Ob ein bestimmter Raum öffentlich zugänglich ist, sollte jedoch von Fall zu Fall unter Berücksichtigung der Besonderheiten der jeweiligen individuellen Situation entschieden werden.

(9) Für die Zwecke dieser Verordnung sollte der Begriff „öffentlich zugänglicher Raum“ so verstanden werden, dass er sich auf einen der Öffentlichkeit zugänglichen physischen Ort bezieht, unabhängig davon, ob sich der betreffende Ort in privatem oder öffentlichem Eigentum befindet, und unabhängig von möglichen Kapazitätseinschränkungen. Daher erfasst der Begriff keine privaten Orte, wie Privathäuser, private Clubs, Büros, Lager und Fabriken, die normalerweise für Dritte, einschließlich Strafverfolgungsbehörden, nicht frei zugänglich sind, es sei denn, diese wurden ausdrücklich eingeladen oder ihr Zugang ausdrücklich erlaubt. Auch Online-Räume werden nicht erfasst, da es sich nicht um physische Räume handelt. Die bloße Tatsache, dass bestimmte Bedingungen für den Zugang zu einem bestimmten Raum gelten können, wie Eintrittskarten oder Altersbeschränkungen, bedeutet jedoch nicht, dass der Raum im Sinne dieser Verordnung nicht öffentlich zugänglich ist. Folglich sind neben öffentlichen Räumen wie Straßen, relevanten Teilen von Regierungsgebäuden und den meisten Verkehrsinfrastrukturen auch Bereiche wie Kinos, Theater, Sportplätze, Schulen, Universitäten, relevante Gebäudebereiche von Krankenhäusern und Banken, Vergnügungsparks, Festivals, Geschäfte und Einkaufszentren in der Regel öffentlich zugänglich. Ob ein bestimmter Raum öffentlich zugänglich ist, sollte jedoch von Fall zu Fall unter Berücksichtigung der Besonderheiten der jeweiligen individuellen Situation entschieden werden.

Änderungsantrag  27

 

Vorschlag für eine Verordnung

Erwägung 9 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(9a) Es ist wichtig, festzustellen, dass KI-Systeme so konzipiert sind, dass es ihnen möglich ist, allgemeine Grundsätze einzuhalten, mit denen ein auf den Menschen ausgerichteter Rahmen auf hoher Ebene geschaffen wird, der einen kohärenten, auf den Menschen ausgerichteten Ansatz für ethische und vertrauenswürdige KI im Einklang mit der Charta der Grundrechte der Europäischen Union und den Werten, auf denen die Union beruht, fördert, einschließlich des Schutzes der Grundrechte, der Handlungs- und Kontrollfähigkeit des Menschen, der technischen Robustheit und Sicherheit, des Schutzes der Privatsphäre und der Datenverwaltung, der Transparenz, der Nichtdiskriminierung und Fairness sowie des gesellschaftlichen und ökologischen Wohlergehens.

Änderungsantrag  28

 

Vorschlag für eine Verordnung

Erwägung 9 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(9b) Der Begriff „KI-Kompetenz“ bezieht sich auf Fähigkeiten, Kenntnisse und das Verständnis, die es Anbietern, Nutzern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme in Kenntnis der Sachlage einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden und dadurch ihre demokratische Kontrolle zu fördern. KI-Kompetenz sollte sich nicht auf das Lernen über Werkzeuge und Technologien beschränken, sondern auch darauf abzielen, Anbieter und Nutzer mit den Begriffen und Kompetenzen auszustatten, die erforderlich sind, um die Einhaltung und Durchsetzung dieser Verordnung sicherzustellen. Daher ist es notwendig, dass die Kommission, die Mitgliedstaaten sowie die Anbieter und Nutzer von KI-Systemen in Zusammenarbeit mit allen einschlägigen Interessenträgern die Entwicklung ausreichender KI-Kompetenzen bei Menschen aller Altersgruppen, einschließlich Frauen und Mädchen, in allen Bereichen der Gesellschaft fördern und dass die diesbezüglichen Fortschritte aufmerksam verfolgt werden.

Änderungsantrag  29

 

Vorschlag für eine Verordnung

Erwägung 10

 

Vorschlag der Kommission

Geänderter Text

(10) Um gleiche Wettbewerbsbedingungen und einen wirksamen Schutz der Rechte und Freiheiten natürlicher Personen in der gesamten Union zu gewährleisten, sollten die in dieser Verordnung festgelegten Vorschriften in nichtdiskriminierender Weise für Anbieter von KI-Systemen – unabhängig davon, ob sie in der Union oder in einem Drittland niedergelassen sind – und für Nutzer von KI-Systemen, die in der Union ansässig oder niedergelassen sind, gelten.

(10) Um gleiche Wettbewerbsbedingungen und einen wirksamen Schutz der Rechte und Freiheiten natürlicher Personen in der gesamten Union und auf internationaler Ebene zu gewährleisten, sollten die in dieser Verordnung festgelegten Vorschriften in nichtdiskriminierender Weise für Anbieter von KI-Systemen – unabhängig davon, ob sie in der Union oder in einem Drittland niedergelassen sind – und für Betreiber von KI-Systemen, die in der Union ansässig oder niedergelassen sind, gelten. Damit die Union ihren Grundwerten treu bleibt, sollten KI-Systeme, die für Verfahren eingesetzt werden, die im Rahmen dieser Verordnung als unannehmbar angesehen werden, aufgrund ihrer besonders schädigenden Auswirkungen auf die in der Charta verankerten Grundrechte auch außerhalb der Union als unannehmbar gelten. Es ist daher angemessen, die Ausfuhr solcher KI-Systeme in Drittländer durch in der Union ansässige Betreiber zu verbieten.

 

Änderungsantrag  30

 

Vorschlag für eine Verordnung

Erwägung 11

 

Vorschlag der Kommission

Geänderter Text

(11) Angesichts ihres digitalen Charakters sollten bestimmte KI-Systeme in den Anwendungsbereich dieser Verordnung fallen, selbst wenn sie in der Union weder in Verkehr gebracht noch in Betrieb genommen oder verwendet werden. Dies ist beispielsweise der Fall, wenn ein in der Union ansässiger oder niedergelassener Akteur bestimmte Dienstleistungen an einen außerhalb der Union ansässigen oder niedergelassenen Akteur im Zusammenhang mit einer Tätigkeit vergibt, die von einem KI-System ausgeübt werden soll, das als hochriskant einzustufen wäre und sich auf in der Union ansässige natürliche Personen auswirken würde. Unter diesen Umständen könnte das von dem Akteur außerhalb der Union betriebene KI-System Daten verarbeiten, die rechtmäßig in der Union erhoben und aus der Union übertragen wurden, und sodann dem vertraglichen Akteur in der Union die aus dieser Verarbeitung resultierenden Ergebnisse dieses KI-Systems liefern, ohne dass dieses KI-System dabei in der Union in Verkehr gebracht, in Betrieb genommen oder verwendet wird. Um die Umgehung dieser Verordnung zu verhindern und einen wirksamen Schutz in der Union ansässiger natürlicher Personen zu gewährleisten, sollte diese Verordnung auch für Anbieter und Nutzer von KI-Systemen gelten, die in einem Drittland ansässig oder niedergelassen sind, soweit die von diesen Systemen erzeugten Ergebnisse in der Union verwendet werden. Um jedoch bestehenden Vereinbarungen und besonderen Erfordernissen für die Zusammenarbeit mit ausländischen Partnern, mit denen Informationen und Beweismittel ausgetauscht werden, Rechnung zu tragen, sollte diese Verordnung nicht für Behörden eines Drittlands und internationale Organisationen gelten, wenn sie im Rahmen internationaler Übereinkünfte tätig werden, die auf nationaler oder europäischer Ebene für die Zusammenarbeit mit der Union oder ihren Mitgliedstaaten im Bereich der Strafverfolgung und der justiziellen Zusammenarbeit geschlossen wurden. Solche Übereinkünfte wurden bilateral zwischen Mitgliedstaaten und Drittstaaten oder zwischen der Europäischen Union, Europol und anderen EU-Agenturen einerseits und Drittstaaten und internationalen Organisationen andererseits geschlossen.

(11) Angesichts ihres digitalen Charakters sollten bestimmte KI-Systeme in den Anwendungsbereich dieser Verordnung fallen, selbst wenn sie in der Union weder in Verkehr gebracht noch in Betrieb genommen oder verwendet werden. Dies ist beispielsweise der Fall, wenn ein in der Union ansässiger oder niedergelassener Akteur bestimmte Dienstleistungen an einen außerhalb der Union ansässigen oder niedergelassenen Akteur im Zusammenhang mit einer Tätigkeit vergibt, die von einem KI-System ausgeübt werden soll, das als hochriskant einzustufen wäre und sich auf in der Union ansässige natürliche Personen auswirken würde. Unter diesen Umständen könnte das von dem Akteur außerhalb der Union betriebene KI-System Daten verarbeiten, die rechtmäßig in der Union erhoben und aus der Union übertragen wurden, und sodann dem vertraglichen Akteur in der Union die aus dieser Verarbeitung resultierenden Ergebnisse dieses KI-Systems liefern, ohne dass dieses KI-System dabei in der Union in Verkehr gebracht, in Betrieb genommen oder verwendet wird. Um die Umgehung dieser Verordnung zu verhindern und einen wirksamen Schutz in der Union ansässiger natürlicher Personen zu gewährleisten, sollte diese Verordnung auch für Anbieter, Nutzer und Betreiber von KI-Systemen gelten, die in einem Drittland ansässig oder niedergelassen sind, soweit die von diesen Systemen erzeugten Ergebnisse für die Nutzung in der Union vorgesehen sind. Um jedoch bestehenden Vereinbarungen und besonderen Erfordernissen für die Zusammenarbeit mit ausländischen Partnern, mit denen Informationen und Beweismittel ausgetauscht werden, Rechnung zu tragen, sollte diese Verordnung nicht für Behörden eines Drittlands und internationale Organisationen gelten, wenn sie im Rahmen internationaler Übereinkünfte tätig werden, die auf nationaler oder europäischer Ebene für die Zusammenarbeit mit der Union oder ihren Mitgliedstaaten im Bereich der Strafverfolgung und der justiziellen Zusammenarbeit geschlossen wurden. Solche Übereinkünfte wurden bilateral zwischen Mitgliedstaaten und Drittstaaten oder zwischen der Europäischen Union, Europol und anderen EU-Agenturen einerseits und Drittstaaten und internationalen Organisationen andererseits geschlossen. Diese Ausnahme sollte jedoch auf vertrauenswürdige Länder und internationale Organisationen beschränkt werden, die die Werte der Union teilen.

Änderungsantrag  31

 

Vorschlag für eine Verordnung

Erwägung 12

 

Vorschlag der Kommission

Geänderter Text

(12) Diese Verordnung sollte auch für Organe, Einrichtungen und sonstige Stellen der Union gelten, wenn sie als Anbieter oder Nutzer eines KI-Systems auftreten. KI-Systeme, die ausschließlich für militärische Zwecke entwickelt oder verwendet werden, sollten vom Anwendungsbereich dieser Verordnung ausgenommen werden, wenn diese Verwendung in den ausschließlichen Zuständigkeitsbereich der Gemeinsamen Außen- und Sicherheitspolitik fällt, der in Titel V des Vertrags über die Europäische Union (EUV) geregelt ist. Diese Verordnung sollte die Bestimmungen über die Verantwortlichkeit der Vermittler in der Richtlinie 2000/31/EG des Europäischen Parlaments und des Rates [in der durch das Gesetz über digitale Dienste geänderten Fassung] unberührt lassen.

(12) Diese Verordnung sollte auch für Organe, Einrichtungen und sonstige Stellen der Union gelten, wenn sie als Anbieter oder Betreiber eines KI-Systems auftreten. KI-Systeme, die ausschließlich für militärische Zwecke entwickelt oder verwendet werden, sollten vom Anwendungsbereich dieser Verordnung ausgenommen werden, wenn diese Verwendung in den ausschließlichen Zuständigkeitsbereich der Gemeinsamen Außen- und Sicherheitspolitik fällt, der in Titel V des Vertrags über die Europäische Union (EUV) geregelt ist. Diese Verordnung sollte die Bestimmungen über die Verantwortlichkeit der Vermittler in der Richtlinie 2000/31/EG des Europäischen Parlaments und des Rates [in der durch das Gesetz über digitale Dienste geänderten Fassung] unberührt lassen.

Änderungsantrag  32

 

Vorschlag für eine Verordnung

Erwägung 12 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(12a) Software und Daten, die offen geteilt werden und die Nutzer kostenlos abrufen, nutzen, verändern und weiter verteilen können, auch in veränderter Form, können zu Forschung und Innovation auf dem Markt beitragen. Durch Forschungsprojekte der Kommission wurde auch gezeigt, dass freie und quelloffene Software im Umfang von 65 Mrd. bis 95 Mrd. EUR zum Bruttoinlandsprodukt der Europäischen Union beitragen kann und dass durch sie wesentliche Wachstumsmöglichkeiten für die europäische Wirtschaft geschaffen werden. Nutzer haben die Möglichkeit, Software und Daten zu nutzen, zu kopieren, zu verbreiten, Studien zu ihr/ihnen durchzuführen, sie zu ändern und zu verbessern, einschließlich Modellen im Rahmen von freien und quelloffenen Lizenzen. Um die Entwicklung und den Einsatz von KI zu fördern – insbesondere durch KMU, Start-ups, die wissenschaftliche Forschung und auch durch Einzelpersonen –, sollte diese Verordnung nicht für solche freien und quelloffenen KI-Komponenten gelten, es sei denn, sie werden von einem Anbieter als Teil eines Hochrisiko-KI-Systems oder eines KI-Systems, das unter Titel II oder IV dieser Verordnung fällt, in Verkehr gebracht oder in Betrieb genommen.

Änderungsantrag  33

 

Vorschlag für eine Verordnung

Erwägung 12 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(12b) Weder die gemeinsame Entwicklung von freien oder quelloffenen Softwarekomponenten noch ihr Verfügbarmachen auf offenen Portalen sollte ein Inverkehrbringen oder eine Inbetriebnahme darstellen. Eine gewerbliche Tätigkeit im Sinne der Bereitstellung auf dem Markt ist möglicherweise nicht nur dadurch gekennzeichnet, dass ein Entgelt verlangt wird, mit Ausnahme von Transaktionen zwischen Kleinstunternehmen für eine freie und quelloffene AI, sondern auch dadurch, dass für technische Unterstützungsleistungen ein Entgelt verlangt wird, dass eine Softwareplattform bereitgestellt wird, über die der Anbieter andere Dienste monetarisiert, oder dass personenbezogene Daten zu anderen Zwecken als der alleinigen Verbesserung der Sicherheit, Kompatibilität oder der Software verwendet werden.

Änderungsantrag  34

 

Vorschlag für eine Verordnung

Erwägung 12 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(12c) Die Entwickler von freien und quelloffenen KI-Komponenten sollten im Rahmen dieser Verordnung nicht verpflichtet werden, Anforderungen zu erfüllen, die auf die Produktwertschöpfungskette der KI und insbesondere auf den Anbieter abzielen, der freie und quelloffene KI-Softwarekomponenten verwendet hat. Die Entwickler von freien und quelloffenen KI-Komponenten sollten jedoch dazu angehalten werden, weit verbreitete Dokumentationsverfahren, wie z. B. Modell- und Datenkarten, als Mittel dazu einzusetzen, den Informationsaustausch entlang der KI-Wertschöpfungskette zu beschleunigen, sodass vertrauenswürdige KI-Systeme in der Union gefördert werden können.

Änderungsantrag  35

 

Vorschlag für eine Verordnung

Erwägung 13

 

Vorschlag der Kommission

Geänderter Text

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit sowie die Grundrechte zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit sowie die Grundrechte, Demokratie, Rechtsstaatlichkeit und die Umwelt zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta, dem europäischen Grünen Deal, der Gemeinsamen Erklärung zu den digitalen Rechten der Union und den Ethik-Leitlinien für vertrauenswürdige künstliche Intelligenz (KI) der hochrangigen Expertengruppe für künstliche Intelligenz im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.

Änderungsantrag  36

 

Vorschlag für eine Verordnung

Erwägung 14

 

Vorschlag der Kommission

Geänderter Text

(14) Um ein verhältnismäßiges und wirksames verbindliches Regelwerk für KI-Systeme einzuführen, sollte ein klar definierter risikobasierter Ansatz verfolgt werden. Bei diesem Ansatz sollten Art und Inhalt solcher Vorschriften auf die Intensität und den Umfang der Risiken zugeschnitten werden, die von KI-Systemen ausgehen können. Es ist daher notwendig, bestimmte Praktiken im Bereich der künstlichen Intelligenz zu verbieten und Anforderungen an Hochrisiko-KI-Systeme und Verpflichtungen für die betreffenden Akteure sowie Transparenzpflichten für bestimmte KI-Systeme festzulegen.

(14) Um ein verhältnismäßiges und wirksames verbindliches Regelwerk für KI-Systeme einzuführen, sollte ein klar definierter risikobasierter Ansatz verfolgt werden. Bei diesem Ansatz sollten Art und Inhalt solcher Vorschriften auf die Intensität und den Umfang der Risiken zugeschnitten werden, die von KI-Systemen ausgehen können. Es ist daher notwendig, bestimmte unannehmbare Praktiken im Bereich der künstlichen Intelligenz zu verbieten und Anforderungen an Hochrisiko-KI-Systeme und Verpflichtungen für die betreffenden Akteure sowie Transparenzpflichten für bestimmte KI-Systeme festzulegen.

Änderungsantrag  37

 

Vorschlag für eine Verordnung

Erwägung 15

 

Vorschlag der Kommission

Geänderter Text

(15) Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten künstlicher Intelligenz kann diese Technik auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der Grundrechte in der Union, einschließlich des Rechts auf Nichtdiskriminierung, Datenschutz und Privatsphäre sowie der Rechte des Kindes.

(15) Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten künstlicher Intelligenz kann diese Technik auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und missbräuchlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der Grundrechte in der Union, einschließlich des Rechts auf Nichtdiskriminierung, Datenschutz und Privatsphäre sowie der Rechte des Kindes.

Änderungsantrag  38

 

Vorschlag für eine Verordnung

Erwägung 16

 

Vorschlag der Kommission

Geänderter Text

(16) Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die dazu bestimmt sind, menschliches Verhalten nachteilig zu beeinflussen, und die zu physischen oder psychischen Schäden führen dürften, sollte verboten werden. Solche KI-Systeme setzen auf eine vom Einzelnen nicht zu erkennende unterschwellige Beeinflussung oder sollen die Schutzbedürftigkeit von Kindern und anderen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung beeinträchtigten Personen ausnutzen. Dies geschieht mit der Absicht, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person Schaden zufügt oder zufügen kann. Diese Absicht kann nicht vermutet werden, wenn die nachteilige Beeinflussung des menschlichen Verhaltens auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Nutzers liegen. Forschung zu legitimen Zwecken im Zusammenhang mit solchen KI-Systemen sollte durch das Verbot nicht unterdrückt werden, wenn diese Forschung nicht auf eine Verwendung des KI-Systems in Beziehungen zwischen Mensch und Maschine hinausläuft, durch die natürliche Personen geschädigt werden, und wenn diese Forschung im Einklang mit anerkannten ethischen Standards für die wissenschaftliche Forschung durchgeführt wird.

(16) Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die das Ziel oder die Auswirkung haben, menschliches Verhalten maßgeblich nachteilig zu beeinflussen, und die zu physischen oder psychischen Schäden führen dürften, sollte verboten werden. Diese Einschränkung sollte so verstanden werden, dass sie Neurotechnologien einschließt, die von KI-Systemen unterstützt werden, die zur Überwachung, Nutzung oder Beeinflussung neuronaler Daten eingesetzt werden, die über Schnittstellen zwischen Gehirn und Computer gesammelt werden, da sie das Verhalten einer natürlichen Person auf eine Art maßgeblich beeinflussen, durch die wahrscheinlich dieser Person oder einer anderen Person wesentlicher Schaden zugefügt wird. Solche KI-Systeme setzen auf eine vom Einzelnen nicht zu erkennende unterschwellige Beeinflussung oder sollen die Schutzbedürftigkeit von Einzelpersonen und spezifischen Gruppen von Personen aufgrund ihrer bekannten oder vorhergesagten Persönlichkeitsmerkmale, ihres Alters oder ihrer körperlichen oder geistigen Behinderung oder ihrer sozialen oder wirtschaftlichen Situation ausnutzen. Dies geschieht mit der Absicht oder der Auswirkung, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person oder Gruppen von Personen wesentlichen Schaden zufügt oder zufügen kann, einschließlich Schäden, die sich im Laufe der Zeit akkumulieren. Diese Absicht, das Verhalten zu beeinflussen, kann nicht vermutet werden, wenn die nachteilige Beeinflussung des menschlichen Verhaltens auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Nutzers liegen, wie Faktoren, die nicht vernünftigerweise vorgesehen und vom Anbieter oder Betreiber des KI-Systems abgeschwächt werden können. In jedem Fall ist es nicht erforderlich, dass der Anbieter oder der Betreiber die Absicht haben, signifikanten Schaden zuzufügen, wenn dieser Schaden aufgrund von manipulativen oder ausbeuterischen KI-gestützten Praktiken entsteht. Die Verbote für solche KI-Praktiken ergänzen die Bestimmungen, die in Richtlinie 2005/29/EG enthalten sind und denen zufolge unlautere Geschäftspraktiken verboten sind – unabhängig davon, ob sie mit Rückgriff auf KI-Systeme oder auf andere Weise durchgeführt werden. In solchen Kontexten sollten zulässige Geschäftsverfahren – beispielsweise im Bereich der Werbung –, die mit dem Unionsrecht im Einklang stehen, nicht an sich als Verfahren angesehen werden, die gegen das Verbot verstoßen. Forschung zu legitimen Zwecken im Zusammenhang mit solchen KI-Systemen sollte durch das Verbot nicht unterdrückt werden, wenn diese Forschung nicht auf eine Verwendung des KI-Systems in Beziehungen zwischen Mensch und Maschine hinausläuft, durch die natürliche Personen geschädigt werden, und wenn diese Forschung im Einklang mit anerkannten ethischen Standards für die wissenschaftliche Forschung und auf der Grundlage der ausdrücklichen Zustimmung der Personen durchgeführt wird, die ihnen ausgesetzt sind, oder gegebenenfalls ihres gesetzlichen Vertreters.

 

Änderungsantrag  39

 

Vorschlag für eine Verordnung

Erwägung 16 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(16a) KI-Systeme, die natürliche Personen kategorisieren, indem sie sie nach bekannten oder vermuteten sensiblen oder geschützten Merkmalen bestimmten Kategorien zuweisen, sind besonders intrusiv, verletzen die menschliche Würde und bringen ein großes Diskriminierungsrisiko mit sich. Zu solchen Merkmalen gehören Geschlecht und Geschlechtsidentität, Rasse, ethnische Herkunft, Migrations- oder Staatsbürgerschaftsstatus, politische Ausrichtung, sexuelle Ausrichtung, Religion, Behinderung oder jegliche anderen Gründe, die nach Artikel 21 der EU-Charta der Grundrechte und nach Artikel 9 der Verordnung (EU) 2016/769 keine Diskriminierung nach sich ziehen dürfen. Solche Systeme sollten daher verboten werden.

Änderungsantrag  40

 

Vorschlag für eine Verordnung

Erwägung 17

 

Vorschlag der Kommission

Geänderter Text

(17) KI-Systeme, die von Behörden oder in deren Auftrag das soziale Verhalten natürlicher Personen für allgemeine Zwecke bewerten, können zu diskriminierenden Ergebnissen und zur Ausgrenzung bestimmter Gruppen führen. Sie können die Menschenwürde und das Recht auf Nichtdiskriminierung sowie die Werte der Gleichheit und Gerechtigkeit verletzen. Solche KI-Systeme bewerten oder klassifizieren die Vertrauenswürdigkeit natürlicher Personen auf der Grundlage ihres sozialen Verhaltens in verschiedenen Zusammenhängen oder aufgrund bekannter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale. Die aus solchen KI-Systemen erzielte soziale Bewertung kann zu einer Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden, oder zu einer Schlechterstellung in einer Weise führen, die im Hinblick auf ihr soziales Verhalten oder dessen Tragweite ungerechtfertigt oder unverhältnismäßig ist. Solche KI-Systeme sollten daher verboten werden.

(17) KI-Systeme, die das soziale Verhalten natürlicher Personen für allgemeine Zwecke bewerten, können zu diskriminierenden Ergebnissen und zur Ausgrenzung bestimmter Gruppen führen. Sie verletzen die Menschenwürde und das Recht auf Nichtdiskriminierung sowie die Werte der Gleichheit und Gerechtigkeit. Solche KI-Systeme bewerten oder klassifizieren die Vertrauenswürdigkeit natürlicher Personen oder Gruppen auf der Grundlage zahlreicher Datenpunkte und des zeitlichen Auftretens bestimmter Aspekte ihres sozialen Verhaltens in verschiedenen Zusammenhängen oder aufgrund bekannter, vermuteter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale. Die aus solchen KI-Systemen erzielte soziale Bewertung kann zu einer Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden, oder zu einer Schlechterstellung in einer Weise führen, die im Hinblick auf ihr soziales Verhalten oder dessen Tragweite ungerechtfertigt oder unverhältnismäßig ist. Solche KI-Systeme sollten daher verboten werden.

Änderungsantrag  41

 

Vorschlag für eine Verordnung

Erwägung 18

 

Vorschlag der Kommission

Geänderter Text

(18) Die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken gilt als besonders in die Rechte und Freiheiten der betroffenen Personen eingreifend, da sie die Privatsphäre eines großen Teils der Bevölkerung beeinträchtigt, ein Gefühl der ständigen Überwachung weckt und indirekt von der Ausübung der Versammlungsfreiheit und anderer Grundrechte abhalten kann. Darüber hinaus bergen die Unmittelbarkeit der Auswirkungen und die begrenzten Möglichkeiten weiterer Kontrollen oder Korrekturen im Zusammenhang mit der Verwendung solcher in Echtzeit betriebener Systeme erhöhte Risiken für die Rechte und Freiheiten der Personen, die von Strafverfolgungsmaßnahmen betroffen sind.

(18) Die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen greift besonders in die Rechte und Freiheiten der betroffenen Personen ein und kann letztendlich die Privatsphäre eines großen Teils der Bevölkerung beeinträchtigen, ein Gefühl der ständigen Überwachung wecken, Parteien, die biometrische Identifizierung in öffentlich zugänglichen Räumen einsetzen, in eine unkontrollierbare Machtposition bringen und indirekt von der Ausübung der Versammlungsfreiheit und anderer Grundrechte, die den Kern der Rechtsstaatlichkeit darstellen, abhalten. Technische Ungenauigkeiten von KI-Systemen, die für die biometrische Fernidentifizierung natürlicher Personen bestimmt sind, können zu verzerrten Ergebnissen führen und eine diskriminierende Wirkung haben. Dies ist von besonderer Bedeutung, wenn es um das Alter, die ethnische Herkunft, das Geschlecht oder Behinderungen geht. Darüber hinaus bergen die Unmittelbarkeit der Auswirkungen und die begrenzten Möglichkeiten weiterer Kontrollen oder Korrekturen im Zusammenhang mit der Verwendung solcher in Echtzeit betriebener Systeme erhöhte Risiken für die Rechte und Freiheiten der Personen, die von Strafverfolgungsmaßnahmen betroffen sind. Die Verwendung dieser Systeme in öffentlich zugänglichen Räumen sollte daher verboten werden. Gleichzeitig sollten KI-Systeme, die für die Analyse von aufgezeichnetem Filmmaterial von öffentlich zugänglichen Räumen durch Systeme zur nachträglichen biometrischen Fernidentifizierung verwendet werden, ebenfalls verboten werden, es sei denn, es liegt eine vorgerichtliche Genehmigung für die Verwendung im Rahmen der Strafverfolgung vor, wenn dies für die gezielte Durchsuchung im Zusammenhang mit einer bestimmten schweren Straftat, die bereits stattgefunden hat, unbedingt erforderlich ist, und dies nur mit einer vorgerichtlichen Genehmigung.

Änderungsantrag  42

 

Vorschlag für eine Verordnung

Erwägung 19

 

Vorschlag der Kommission

Geänderter Text

(19) Die Verwendung solcher Systeme zu Strafverfolgungszwecken sollte daher untersagt werden, außer in drei erschöpfend aufgeführten und eng abgegrenzten Fällen, in denen die Verwendung unbedingt erforderlich ist, um einem erheblichen öffentlichen Interesse zu dienen, dessen Bedeutung die Risiken überwiegt. Zu diesen Fällen gehört die Suche nach potenziellen Opfern von Straftaten, einschließlich vermisster Kinder, bestimmte Gefahren für das Leben oder die körperliche Unversehrtheit natürlicher Personen oder die Gefahr eines Terroranschlags sowie das Erkennen, Aufspüren, Identifizieren oder Verfolgen von Tätern oder Verdächtigen von Straftaten im Sinne des Rahmenbeschlusses 2002/584/JI des Rates38 , sofern diese Straftaten in dem betreffenden Mitgliedstaat nach dessen Recht mit einer Freiheitsstrafe oder einer freiheitsentziehenden Maßregel der Sicherung im Höchstmaß von mindestens drei Jahren bedroht sind. Eine solche Schwelle für eine Freiheitsstrafe oder eine freiheitsentziehende Maßregel der Sicherung nach nationalem Recht trägt dazu bei sicherzustellen, dass die Straftat schwerwiegend genug ist, um den Einsatz biometrischer Echtzeit-Fernidentifizierungssysteme zu rechtfertigen. Darüber hinaus sind einige der 32 im Rahmenbeschluss 2002/584/JI des Rates aufgeführten Straftaten in der Praxis eher relevant als andere, da der Rückgriff auf die biometrische Echtzeit-Fernidentifizierung für die konkrete Erkennung, Aufspürung, Identifizierung oder Verfolgung eines Täters oder Verdächtigen einer der verschiedenen aufgeführten Straftaten voraussichtlich in äußerst unterschiedlichem Maße erforderlich und verhältnismäßig sein wird und da dabei die wahrscheinlichen Unterschiede in Schwere, Wahrscheinlichkeit und Ausmaß des Schadens oder möglicher negativer Folgen zu berücksichtigen sind.

entfällt

__________________

 

38 Rahmenbeschluss 2002/584/JI des Rates vom 13. Juni 2002 über den Europäischen Haftbefehl und die Übergabeverfahren zwischen den Mitgliedstaaten (ABl. L 190 vom 18.7.2002, S. 1).

 

Änderungsantrag  43

 

Vorschlag für eine Verordnung

Erwägung 20

 

Vorschlag der Kommission

Geänderter Text

(20) Um sicherzustellen, dass diese Systeme verantwortungsvoll und verhältnismäßig genutzt werden, ist es auch wichtig, festzulegen, dass in jedem dieser drei erschöpfend aufgeführten und eng abgegrenzten Fälle bestimmte Elemente berücksichtigt werden sollten, insbesondere in Bezug auf die Art des dem Antrag zugrunde liegenden Falls und die Auswirkungen der Verwendung auf die Rechte und Freiheiten aller betroffenen Personen sowie auf die für die Verwendung geltenden Schutzvorkehrungen und Bedingungen. Darüber hinaus sollte die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen für die Zwecke der Strafverfolgung angemessenen zeitlichen und räumlichen Beschränkungen unterliegen, wobei insbesondere den Beweisen oder Hinweisen in Bezug auf die Bedrohungen, die Opfer oder den Täter Rechnung zu tragen ist. Die Personenreferenzdatenbank sollte für jeden Anwendungsfall in jeder der drei oben genannten Situationen geeignet sein.

entfällt

Änderungsantrag  44

 

Vorschlag für eine Verordnung

Erwägung 21

 

Vorschlag der Kommission

Geänderter Text

(21) Jede Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken sollte einer ausdrücklichen spezifischen Genehmigung durch eine Justizbehörde oder eine unabhängige Verwaltungsbehörde eines Mitgliedstaats unterliegen. Eine solche Genehmigung sollte grundsätzlich vor der Verwendung eingeholt werden, außer in hinreichend begründeten dringenden Fällen, d. h. in Situationen, in denen es wegen der Notwendigkeit der Verwendung der betreffenden Systeme tatsächlich und objektiv unmöglich ist, vor dem Beginn der Verwendung eine Genehmigung einzuholen. In solchen dringenden Fällen sollte die Verwendung auf das absolut notwendige Mindestmaß beschränkt werden und angemessenen Schutzvorkehrungen und Bedingungen unterliegen, die im nationalen Recht festgelegt sind und im Zusammenhang mit jedem einzelnen dringenden Anwendungsfall von der Strafverfolgungsbehörde selbst präzisiert werden. Darüber hinaus sollte die Strafverfolgungsbehörde in solchen Situationen versuchen, so bald wie möglich eine Genehmigung einzuholen, wobei sie begründen sollte, warum sie diese nicht früher beantragen konnte.

entfällt

Änderungsantrag  45

 

Vorschlag für eine Verordnung

Erwägung 22

 

Vorschlag der Kommission

Geänderter Text

(22) Darüber hinaus sollte innerhalb des durch diese Verordnung vorgegebenen erschöpfenden Rahmens festgelegt werden, dass eine solche Verwendung im Hoheitsgebiet eines Mitgliedstaats im Einklang mit dieser Verordnung nur möglich sein sollte, sofern der betreffende Mitgliedstaat in seinen detaillierten nationalen Rechtsvorschriften ausdrücklich vorgesehen hat, dass eine solche Verwendung genehmigt werden kann. Folglich steht es den Mitgliedstaaten im Rahmen dieser Verordnung frei, eine solche Möglichkeit generell oder nur in Bezug auf einige der in dieser Verordnung genannten Ziele, für die eine genehmigte Verwendung gerechtfertigt sein kann, vorzusehen.

entfällt

Änderungsantrag  46

 

Vorschlag für eine Verordnung

Erwägung 23

 

Vorschlag der Kommission

Geänderter Text

(23) Die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken erfordert zwangsläufig die Verarbeitung biometrischer Daten. Die Vorschriften dieser Verordnung, die vorbehaltlich bestimmter Ausnahmen eine solche Verwendung auf der Grundlage von Artikel 16 AEUV verbieten, sollten als Lex specialis in Bezug auf die in Artikel 10 der Richtlinie (EU) 2016/680 enthaltenen Vorschriften über die Verarbeitung biometrischer Daten gelten und somit die Verwendung und Verarbeitung der betreffenden biometrischen Daten umfassend regeln. Eine solche Verwendung und Verarbeitung sollte daher nur möglich sein, soweit sie mit dem in dieser Verordnung festgelegten Rahmen vereinbar ist, ohne dass es den zuständigen Behörden bei ihren Tätigkeiten zu Strafverfolgungszwecken Raum lässt, außerhalb dieses Rahmens solche Systeme zu verwenden und die damit verbundenen Daten aus den in Artikel 10 der Richtlinie (EU) 2016/680 aufgeführten Gründen zu verarbeiten. In diesem Zusammenhang soll diese Verordnung nicht als Rechtsgrundlage für die Verarbeitung personenbezogener Daten gemäß Artikel 8 der Richtlinie (EU) 2016/680 dienen. Die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu anderen Zwecken als der Strafverfolgung, auch durch zuständige Behörden, sollte jedoch nicht unter den in dieser Verordnung festgelegten spezifischen Rahmen für diese Verwendung zu Strafverfolgungszwecken fallen. Eine solche Verwendung zu anderen Zwecken als der Strafverfolgung sollte daher nicht der Genehmigungspflicht gemäß dieser Verordnung und der zu ihrer Durchführung anwendbaren detaillierten nationalen Rechtsvorschriften unterliegen.

entfällt

Änderungsantrag  47

 

Vorschlag für eine Verordnung

Erwägung 24

 

Vorschlag der Kommission

Geänderter Text

(24) Jede Verarbeitung biometrischer Daten und anderer personenbezogener Daten im Zusammenhang mit der Verwendung von KI-Systemen für die biometrische Identifizierung, ausgenommen im Zusammenhang mit der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Sinne dieser Verordnung, einschließlich der Fälle, in denen diese Systeme von den zuständigen Behörden in öffentlich zugänglichen Räumen zu anderen Zwecken als der Strafverfolgung genutzt werden, sollte weiterhin allen Anforderungen genügen, die sich gegebenenfalls aus Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 und Artikel 10 der Richtlinie (EU) 2016/680 ergeben.

(24) Jede Verarbeitung biometrischer Daten und anderer personenbezogener Daten im Zusammenhang mit der Verwendung von KI-Systemen für die biometrische Identifizierung, ausgenommen im Zusammenhang mit der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen im Sinne dieser Verordnung, sollte weiterhin allen Anforderungen genügen, die sich gegebenenfalls aus Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 und Artikel 10 der Richtlinie (EU) 2016/680 ergeben.

Änderungsantrag  48

 

Vorschlag für eine Verordnung

Erwägung 25

 

Vorschlag der Kommission

Geänderter Text

(25) Nach Artikel 6a des dem EUV und dem AEUV beigefügten Protokolls Nr. 21 über die Position des Vereinigten Königreichs und Irlands hinsichtlich des Raums der Freiheit, der Sicherheit und des Rechts sind die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Buchstabe d und Artikel 5 Absätze 2 und 3 dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 und 5 AEUV fallen, für Irland nicht bindend, wenn Irland nicht durch die Vorschriften gebunden ist, die die Formen der justiziellen Zusammenarbeit in Strafsachen oder der polizeilichen Zusammenarbeit regeln, in deren Rahmen die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften eingehalten werden müssen.

(25) Nach Artikel 6a des dem EUV und dem AEUV beigefügten Protokolls Nr. 21 über die Position des Vereinigten Königreichs und Irlands hinsichtlich des Raums der Freiheit, der Sicherheit und des Rechts sind die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Buchstabe d dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 und 5 AEUV fallen, für Irland nicht bindend, wenn Irland nicht durch die Vorschriften gebunden ist, die die Formen der justiziellen Zusammenarbeit in Strafsachen oder der polizeilichen Zusammenarbeit regeln, in deren Rahmen die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften eingehalten werden müssen.

Änderungsantrag  49

 

Vorschlag für eine Verordnung

Erwägung 26

 

Vorschlag der Kommission

Geänderter Text

(26) Nach den Artikeln 2 und 2a des dem EUV und dem AEUV beigefügten Protokolls Nr. 22 über die Position Dänemarks ist Dänemark durch die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Buchstabe d und Artikel 5 Absätze 2 und 3 dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 und 5 AEUV fallen, weder gebunden noch zu ihrer Anwendung verpflichtet.

(26) Nach den Artikeln 2 und 2a des dem EUV und dem AEUV beigefügten Protokolls Nr. 22 über die Position Dänemarks ist Dänemark durch die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Buchstabe d dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 und 5 AEUV fallen, weder gebunden noch zu ihrer Anwendung verpflichtet.

Änderungsantrag  50

 

Vorschlag für eine Verordnung

Erwägung 26 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(26a) KI-Systeme, die von Strafverfolgungsbehörden oder in deren Auftrag eingesetzt werden, um Vorhersagen, Profile oder Risikobewertungen auf der Grundlage von Datenanalysen oder der Erstellung von Profilen von Gruppen natürlicher Personen oder Orten zu treffen bzw. zu erstellen oder um das Auftreten oder erneute Auftreten einer tatsächlichen oder potenziellen Straftat bzw. von anderem unter Strafe gestelltem Sozialverhalten vorherzusagen, bergen ein besonderes Risiko der Diskriminierung bestimmter Personen oder Personengruppen, da sie die Menschenwürde verletzen sowie gegen den zentralen Rechtsgrundsatz der Unschuldsvermutung verstoßen. Solche KI-Systeme sollten daher verboten werden.

Änderungsantrag  51

 

Vorschlag für eine Verordnung

Erwägung 26 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(26b) Das wahllose und ungezielte Auslesen biometrischer Daten aus sozialen Medien oder Überwachungsvideos, um Gesichtserkennungsdatenbanken zu schaffen oder zu erweitern, verstärkt das Gefühl der Massenüberwachung und kann zu schweren Verstößen gegen die Grundrechte führen, einschließlich des Rechts auf Privatsphäre. Die Verwendung von KI-Systemen zu diesem Zweck sollte daher verboten werden.

Änderungsantrag  52

 

Vorschlag für eine Verordnung

Erwägung 26 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(26c) Im Hinblick auf die wissenschaftliche Grundlage von KI-Systemen zur Erkennung von Emotionen, physischen oder physiologischen Merkmalen wie Gesichtsausdrücken, Bewegungen, der Pulsfrequenz oder der Stimme bestehen ernsthafte Bedenken. Emotionen oder Gefühlsausdrücke werden je nach Kultur und Situation anders wahrgenommen und selbst eine bestimmte Person zeigt in ähnlichen Situationen nicht immer dieselben Emotionen. Zu den größten Schwachstellen solcher Technologien gehören die begrenzte Zuverlässigkeit (Emotionskategorien werden weder zuverlässig durch einen gemeinsamen Satz von Gesichtsbewegungen ausgedrückt noch eindeutig damit in Verbindung gebracht), die mangelnde Spezifität (physische oder physiologische Ausdrücke stimmen nicht eins zu eins mit Emotionskategorien überein) und die begrenzte Verallgemeinerbarkeit (die Auswirkungen von Kontext und Kultur werden nicht ausreichend berücksichtigt). Probleme der Zuverlässigkeit und folglich größere Risiken für Missbrauch können insbesondere dann auftreten, wenn das System in realen Situationen in den Bereichen Strafverfolgung, Grenzverwaltung, Arbeitsplatz und Bildungseinrichtung eingesetzt wird. Daher sollte das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen, die in Kontexten verwendet werden sollen, um den emotionalen Zustand einer natürlichen Person auszumachen, verboten werden.

Änderungsantrag  53

 

Vorschlag für eine Verordnung

Erwägung 26 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(26d) Praktiken, die nach Unionsrecht, einschließlich Datenschutzrecht, Nichtdiskriminierungsrecht, Verbraucherschutzrecht und Wettbewerbsrecht, verboten sind, sollten von dieser Verordnung nicht betroffen sein.

Änderungsantrag  54

 

Vorschlag für eine Verordnung

Erwägung 27

 

Vorschlag der Kommission

Geänderter Text

(27) Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht oder in Betrieb genommen werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben.

(27) Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht, in Betrieb genommen oder verwendet werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind, einschließlich der Grundrechte, der Demokratie, der Rechtstaatlichkeit oder der Umwelt. Um die Angleichung an die sektorspezifischen Rechtsvorschriften sicherzustellen und um Dopplungen zu vermeiden, sollten hinsichtlich der Anforderungen für Hochrisiko-KI-Systeme die sektorspezifischen Rechtsvorschriften berücksichtigt werden, die im Rahmen dieser Verordnung enthalten sind, etwa die Verordnung (EU) 2017/745 über Medizinprodukte, die Verordnung (EU) 2017/746 über In-vitro-Diagnostika oder die Richtlinie 2006/42/EG über Maschinen. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben. Angesichts der rasanten technologischen Entwicklung sowie der potenziellen Veränderungen bei der Nutzung von KI-Systemen sollten die Listen von Hochrisikobereichen und -anwendungsfällen in Anhang III jedoch durch die Durchführung regelmäßiger Bewertungen einer ständigen Überprüfung unterzogen werden.

Änderungsantrag  55

 

Vorschlag für eine Verordnung

Erwägung 28

 

Vorschlag der Kommission

Geänderter Text

(28) KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Komponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein. Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, die Unschuldsvermutung und das Verteidigungsrecht sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen verursachen kann, ebenfalls Rechnung getragen werden.

(28) KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Sicherheitskomponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein.

Änderungsantrag  56

 

Vorschlag für eine Verordnung

Erwägung 28 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(28a) Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, die Gleichstellung der Geschlechter, das Recht auf Bildung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, Geschlechtergleichstellung, Rechte des geistigen Eigentums, das Recht auf einen wirksamen Rechtsbehelf und ein faires Gerichtsverfahren, die Unschuldsvermutung und das Verteidigungsrecht sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen oder die Umwelt verursachen kann, ebenfalls Rechnung getragen werden.

Änderungsantrag  57

 

Vorschlag für eine Verordnung

Erwägung 29

 

Vorschlag der Kommission

Geänderter Text

(29) In Bezug auf Hochrisiko-KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder Systemen oder selbst um Produkte oder Systeme handelt, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates39, der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates40, der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates41, der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates42, der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates43, der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates44, der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates45 und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates46 fallen, ist es angezeigt, diese Rechtsakte zu ändern, damit die Kommission – aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Beeinträchtigung bestehender Governance-, Konformitätsbewertungs- und Durchsetzungsmechanismen sowie der darin eingerichteten Behörden – beim Erlass von etwaigen künftigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt.

(29) In Bezug auf Hochrisiko-KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder Systemen oder selbst um Produkte oder Systeme handelt, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates39, der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates40, der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates41, der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates42, der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates43, der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates44, der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates45 und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates46 fallen, ist es angezeigt, diese Rechtsakte zu ändern, damit die Kommission – aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Beeinträchtigung bestehender Governance-, Konformitätsbewertungs-, Marktüberwachungs- und Durchsetzungsmechanismen sowie der darin eingerichteten Behörden – beim Erlass von etwaigen künftigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt.

__________________

__________________

39 Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates vom 11. März 2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt und zur Aufhebung der Verordnung (EG) Nr. 2320/2002 (ABl. L 97 vom 9.4.2008, S. 72).

39 Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates vom 11. März 2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt und zur Aufhebung der Verordnung (EG) Nr. 2320/2002 (ABl. L 97 vom 9.4.2008, S. 72).

40 Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 1)

40 Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 1)

41 Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates vom 15. Januar 2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 52).

41 Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates vom 15. Januar 2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 52).

42 Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates vom 23. Juli 2014 über Schiffsausrüstung und zur Aufhebung der Richtlinie 96/98/EG des Rates (ABl. L 257 vom 28.8.2014, S. 146).

42 Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates vom 23. Juli 2014 über Schiffsausrüstung und zur Aufhebung der Richtlinie 96/98/EG des Rates (ABl. L 257 vom 28.8.2014, S. 146).

43 Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates vom 11. Mai 2016 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union (ABl. L 138 vom 26.5.2016, S. 44).

43 Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates vom 11. Mai 2016 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union (ABl. L 138 vom 26.5.2016, S. 44).

44 Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).

44 Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).

45 Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates vom 4. Juli 2018 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit sowie zur Änderung der Verordnungen (EG) Nr. 2111/2005, (EG) Nr. 1008/2008, (EU) Nr. 996/2010, (EU) Nr. 376/2014 und der Richtlinien 2014/30/EU und 2014/53/EU des Europäischen Parlaments und des Rates, und zur Aufhebung der Verordnungen (EG) Nr. 552/2004 und (EG) Nr. 216/2008 des Europäischen Parlaments und des Rates und der Verordnung (EWG) Nr. 3922/91 des Rates (ABl. L 212 vom 22.8.2018, S. 1).

45 Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates vom 4. Juli 2018 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit sowie zur Änderung der Verordnungen (EG) Nr. 2111/2005, (EG) Nr. 1008/2008, (EU) Nr. 996/2010, (EU) Nr. 376/2014 und der Richtlinien 2014/30/EU und 2014/53/EU des Europäischen Parlaments und des Rates, und zur Aufhebung der Verordnungen (EG) Nr. 552/2004 und (EG) Nr. 216/2008 des Europäischen Parlaments und des Rates und der Verordnung (EWG) Nr. 3922/91 des Rates (ABl. L 212 vom 22.8.2018, S. 1).

46 Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates vom 27. November 2019 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge im Hinblick auf ihre allgemeine Sicherheit und den Schutz der Fahrzeuginsassen und von ungeschützten Verkehrsteilnehmern, zur Änderung der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates und zur Aufhebung der Verordnungen (EG) Nr. 78/2009, (EG) Nr. 79/2009 und (EG) Nr. 661/2009 des Europäischen Parlaments und des Rates sowie der Verordnungen (EG) Nr. 631/2009, (EU) Nr. 406/2010, (EU) Nr. 672/2010, (EU) Nr. 1003/2010, (EU) Nr. 1005/2010, (EU) Nr. 1008/2010, (EU) Nr. 1009/2010, (EU) Nr. 19/2011, (EU) Nr. 109/2011, (EU) Nr. 458/2011, (EU) Nr. 65/2012, (EU) Nr. 130/2012, (EU) Nr. 347/2012, (EU) Nr. 351/2012, (EU) Nr. 1230/2012 und (EU) 2015/166 der Kommission (ABl. L 325 vom 16.12.2019, S. 1).

46 Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates vom 27. November 2019 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge im Hinblick auf ihre allgemeine Sicherheit und den Schutz der Fahrzeuginsassen und von ungeschützten Verkehrsteilnehmern, zur Änderung der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates und zur Aufhebung der Verordnungen (EG) Nr. 78/2009, (EG) Nr. 79/2009 und (EG) Nr. 661/2009 des Europäischen Parlaments und des Rates sowie der Verordnungen (EG) Nr. 631/2009, (EU) Nr. 406/2010, (EU) Nr. 672/2010, (EU) Nr. 1003/2010, (EU) Nr. 1005/2010, (EU) Nr. 1008/2010, (EU) Nr. 1009/2010, (EU) Nr. 19/2011, (EU) Nr. 109/2011, (EU) Nr. 458/2011, (EU) Nr. 65/2012, (EU) Nr. 130/2012, (EU) Nr. 347/2012, (EU) Nr. 351/2012, (EU) Nr. 1230/2012 und (EU) 2015/166 der Kommission (ABl. L 325 vom 16.12.2019, S. 1).

Änderungsantrag  58

 

Vorschlag für eine Verordnung

Erwägung 30

 

Vorschlag der Kommission

Geänderter Text

(30) In Bezug auf KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder selbst um Produkte handelt, die unter bestimmte Harmonisierungsrechtsvorschriften der Union fallen, ist es angezeigt, sie im Rahmen dieser Verordnung als hochriskant einzustufen, wenn das betreffende Produkt gemäß den einschlägigen Harmonisierungsrechtsvorschriften der Union dem Konformitätsbewertungsverfahren durch eine als unabhängige Dritte auftretende Konformitätsbewertungsstelle unterzogen wird. Dabei handelt es sich insbesondere um Produkte wie Maschinen, Spielzeuge, Aufzüge, Geräte und Schutzsysteme zur bestimmungsgemäßen Verwendung in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Sportbootausrüstung, Seilbahnen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte und In-vitro-Diagnostika.

(30) In Bezug auf KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder selbst um Produkte handelt, die unter bestimmte Harmonisierungsrechtsvorschriften der Union fallen, die in Anhang II aufgelistet sind, ist es angezeigt, sie im Rahmen dieser Verordnung als hochriskant einzustufen, wenn das betreffende Produkt gemäß den einschlägigen Harmonisierungsrechtsvorschriften der Union dem Konformitätsbewertungsverfahren durch eine als unabhängige Dritte auftretende Konformitätsbewertungsstelle unterzogen wird, um sicherzustellen, dass es die wesentlichen Sicherheitsanforderungen erfüllt. Dabei handelt es sich insbesondere um Produkte wie Maschinen, Spielzeuge, Aufzüge, Geräte und Schutzsysteme zur bestimmungsgemäßen Verwendung in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Sportbootausrüstung, Seilbahnen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte und In-vitro-Diagnostika.

 

Änderungsantrag  59

 

Vorschlag für eine Verordnung

Erwägung 31

 

Vorschlag der Kommission

Geänderter Text

(31) Die Einstufung eines KI-Systems als hochriskant gemäß dieser Verordnung sollte nicht zwangsläufig bedeuten, dass von dem Produkt, dessen Sicherheitskomponente das KI-System ist, oder dem KI-System als Produkt selbst nach den Kriterien der einschlägigen Harmonisierungsrechtsvorschriften der Union für das betreffende Produkt ein hohes Risiko ausgeht. Dies betrifft insbesondere die Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates47 und die Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates48, in denen für Produkte, die ein mittleres und hohes Risiko bergen, eine Konformitätsbewertung durch Dritte vorgesehen ist.

(31) Die Einstufung eines KI-Systems als hochriskant gemäß dieser Verordnung sollte nicht bedeuten, dass von dem Produkt, dessen Sicherheitskomponente das KI-System ist, oder dem KI-System als Produkt selbst nach den Kriterien der einschlägigen Harmonisierungsrechtsvorschriften der Union für das betreffende Produkt ein hohes Risiko ausgeht. Dies betrifft insbesondere die Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates47 und die Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates48, in denen für Produkte, die ein mittleres und hohes Risiko bergen, eine Konformitätsbewertung durch Dritte vorgesehen ist.

__________________

__________________

47 Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte, zur Änderung der Richtlinie 2001/83/EG, der Verordnung (EG) Nr. 178/2002 und der Verordnung (EG) Nr. 1223/2009 und zur Aufhebung der Richtlinien 90/385/EWG und 93/42/EWG des Rates (ABl. L 117 vom 5.5.2017, S. 1).

47 Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte, zur Änderung der Richtlinie 2001/83/EG, der Verordnung (EG) Nr. 178/2002 und der Verordnung (EG) Nr. 1223/2009 und zur Aufhebung der Richtlinien 90/385/EWG und 93/42/EWG des Rates (ABl. L 117 vom 5.5.2017, S. 1).

48 Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates vom 5. April 2017 über In-vitro-Diagnostika und zur Aufhebung der Richtlinie 98/79/EG und des Beschlusses 2010/227/EU der Kommission (ABl. L 117 vom 5.5.2017, S. 176).

48 Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates vom 5. April 2017 über In-vitro-Diagnostika und zur Aufhebung der Richtlinie 98/79/EG und des Beschlusses 2010/227/EU der Kommission (ABl. L 117 vom 5.5.2017, S. 176).

Änderungsantrag  60

 

Vorschlag für eine Verordnung

Erwägung 32

 

Vorschlag der Kommission

Geänderter Text

(32) Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitskomponenten von Produkten handelt oder die selbst Produkte sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein hohes Risiko bergen, die Gesundheit und Sicherheit oder die Grundrechte von Personen zu schädigen, wobei sowohl die Schwere des möglichen Schadens als auch die Wahrscheinlichkeit seines Auftretens zu berücksichtigen sind, und sofern sie in einer Reihe von Bereichen verwendet werden, die in der Verordnung ausdrücklich festgelegt sind. Die Bestimmung dieser Systeme erfolgt nach derselben Methode und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind.

(32) Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitskomponenten von Produkten handelt oder die selbst Produkte sind und die unter einem der Bereiche und Anwendungsfälle in Anhang III aufgeführt sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein erhebliches Risiko bergen, die Gesundheit und Sicherheit oder die Grundrechte von Personen und – wenn das KI-System als Sicherheitskomponente einer kritischen Infrastruktur verwendet wird – die Umwelt wesentlich zu schädigen. Solche eheblichen Gefahrensrisiken sollten einerseits durch die Bewertung des Risikos in Bezug auf eine Kombination von Faktoren wie dem Schweregrad, der Intensität, der Wahrscheinlichkeit des Auftretens und andererseits in Bezug darauf ermittelt werden, ob das Risiko eine Einzelperson, mehrere Personen oder eine bestimmte Gruppe von Personen beeinträchtigen kann. Eine solche Kombination von Faktoren könnte – abhängig vom Kontext – zum Beispiel zu dem Ergebnis führen, dass zwar ein hoher Schweregrad, aber eine geringe Wahrscheinlichkeit vorliegt, eine natürliche Person zu beeinträchtigen, oder eine hohe Wahrscheinlichkeit besteht, eine ganze Gruppe von Personen mit einer geringen Intensität über einen langen Zeitraum zu beeinträchtigen. Die Bestimmung dieser Systeme erfolgt nach derselben Methode und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind.

Änderungsantrag  61

 

Vorschlag für eine Verordnung

Erwägung 32 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(32a) Anbieter von KI-Systemen, die unter einen der in Anhang III aufgeführten Bereiche und Anwendungsfälle fallen und die der Auffassung sind, dass ihre Systeme kein erhebliches Risiko für die Gesundheit, Sicherheit, Grundrechte oder die Umwelt darstellen, sollten die nationalen Aufsichtsbehörden informieren, indem sie eine mit Gründen versehene Notifizierung einreichen. Dies kann in Form einer einseitigen Zusammenfassung der relevanten Informationen zu dem jeweiligen KI-System erfolgen, in der auch der vorgesehene Zweck genannt wird und der Grund, warum das KI-System kein erhebliches Risiko für die Gesundheit, die Sicherheit, die Grundrechte oder die Umwelt darstellt. Die Kommission sollte die Kriterien genau spezifizieren, um den Unternehmen eine Bewertung zu ermöglichen, ob ihr System solche Risiken birgt, und damit sie ein einfach anwendbares, standardisiertes Muster für die Meldung entwickeln können. Anbieter sollten die Meldung so schnell wie möglich und in jedem Fall vor dem Inverkehrbringen des KI-Systems auf dem Markt oder seiner Inbetriebnahme einreichen – idealerweise bereits in der Entwicklungsphase –, und sie sollten die Freiheit haben, es nach der Meldung zu jedem gegebenen Zeitpunkt in Verkehr bringen. Falls das KI-System jedoch nach Einschätzung der Behörde falsch eingestuft wurde, sollte die Behörde der Meldung innerhalb eines Zeitraums von drei Monaten widersprechen. Der Widerspruch sollte begründet werden und es sollte ordnungsgemäß erklärt werden, warum das KI-System falsch eingestuft wurde. Dem Anbieter sollte das Recht vorbehalten sein, unter Angabe weiterer Argumente Rechtsmittel einzulegen. Auch wenn es drei Monate nach Einreichen der Meldung keinen Widerspruch gab, können die nationalen Aufsichtsbehörden – wie bei jedem anderen in Verkehr gebrachtem KI-System – dennoch eingreifen, wenn das KI-System auf nationaler Ebene ein Risiko darstellt. Die nationalen Aufsichtsbehörden sollten der KI-Behörde Jahresberichte einreichen, in denen die erhaltenen Notifizierungen und die getroffenen Entscheidungen detailliert aufgeführt werden.

Änderungsantrag  62

 

Vorschlag für eine Verordnung

Erwägung 33

 

Vorschlag der Kommission

Geänderter Text

(33) Technische Ungenauigkeiten von KI-Systemen, die für die biometrische Fernidentifizierung natürlicher Personen bestimmt sind, können zu verzerrten Ergebnissen führen und eine diskriminierende Wirkung haben. Dies ist von besonderer Bedeutung, wenn es um das Alter, die ethnische Herkunft, das Geschlecht oder Behinderungen geht. Daher sollten biometrische Echtzeit-Fernidentifizierungssysteme und Systeme zur nachträglichen biometrischen Fernidentifizierung als hochriskant eingestuft werden. Angesichts der mit ihnen verbundenen Risiken sollten für beide Arten von biometrischen Fernidentifizierungssystemen besondere Anforderungen im Hinblick auf die Protokollierungsfunktionen und die menschliche Aufsicht gelten.

entfällt

 

Änderungsantrag  63

 

Vorschlag für eine Verordnung

Erwägung 33 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(33a) Da biometrische Daten in Übereinstimmung mit der Verordnung (EU) 2016/679 eine spezielle Kategorie sensibler personenbezogener Daten darstellen, ist es angemessen, bestimmte kritische Anwendungsfälle von biometrischen und auf Biometrie beruhenden Systemen als Hochrisikofälle einzustufen. KI-Systeme, die für die biometrische Identifizierung natürlicher Personen verwendet werden sollen, sowie KI-Systeme, durch die auf der Grundlage biometrischer oder biometriegestützter Daten Rückschlüsse auf persönliche Merkmale natürlicher Personen gezogen werden, einschließlich Systemen zum Erkennen von Emotionen, sollten daher – mit Ausnahme der Systeme, die gemäß dieser Verordnung verboten sind – als Hochrisiko-Systeme klassifiziert werden. Dies sollte keine KI-Systeme umfassen, die bestimmungsgemäß für die biometrische Fernidentifizierung verwendet werden sollen, deren einziger Zweck darin besteht, zu bestätigen, dass eine bestimmte Person die Person ist, für die sie sich ausgibt, sowie Systeme, die zur Bestätigung der Identität einer natürlichen Person zu dem alleinigen Zweck verwendet werden, ihr Zugang zu einem Dienst, einem Gerät oder einer Räumlichkeit zu gewähren (Eins-zu-Eins-Überprüfung). Biometrische und auf Biometrie beruhende Systeme, die gemäß den Rechtsvorschriften der Union bereitgestellt werden, um Maßnahmen zur Cybersicherheit und zum Schutz personenbezogener Daten zu ermöglichen, sollten nicht als erhebliches Risiko für die Gesundheit, Sicherheit und die Grundrechte angesehen werden.

 

Änderungsantrag  64

 

Vorschlag für eine Verordnung

Erwägung 34

 

Vorschlag der Kommission

Geänderter Text

(34) Was die Verwaltung und den Betrieb kritischer Infrastrukturen anbelangt, so sollten KI-Systeme, die als Sicherheitskomponenten für das Management und den Betrieb des Straßenverkehrs sowie für die Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen, als hochriskant eingestuft werden, da ihr Ausfall oder ihre Störung in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann.

(34) Was die Verwaltung und den Betrieb kritischer Infrastrukturen anbelangt, so sollten KI-Systeme, die als Sicherheitskomponenten für das Management und den Betrieb des Straßenverkehrs sowie für die Wasser-, Gas-, Wärme- und Stromversorgung sowie kritische digitale Infrastruktur verwendet werden sollen, als hochriskant eingestuft werden, da ihr Ausfall oder ihre Störung die Sicherheit und Integrität solcher kritischer Infrastruktur oder in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann. Sicherheitskomponenten von kritischer Infrastruktur, einschließlich kritischer digitaler Infrastruktur, sind Systeme, die eingesetzt werden, um die physische Integrität von kritischer Infrastruktur oder die Gesundheit und Sicherheit von Personen und Eigentum unmittelbar zu schützen. Ein Ausfall oder eine Störung solcher Komponenten kann direkt zu einer Gefährdung der physischen Integrität kritischer Infrastruktur und somit zu einer Gefährdung der Gesundheit und Sicherheit von Menschen und Eigentum führen. Komponenten, die für die ausschließliche Verwendung zu Zwecken der Cybersicherheit vorgesehen sind, sollten nicht als Sicherheitskomponenten gelten. Zu den Beispielen solcher Sicherheitskomponenten können Systeme zur Überwachung des Wasserdrucks oder Brandmeldekontrollsysteme in Cloud-Rechenzentren gehören.

Änderungsantrag  65

 

Vorschlag für eine Verordnung

Erwägung 35

 

Vorschlag der Kommission

Geänderter Text

(35) KI-Systeme, die in der allgemeinen oder beruflichen Bildung eingesetzt werden, insbesondere um den Zugang von Personen zu Bildungs- und Berufsbildungseinrichtungen oder ihrer Zuordnung dazu zu bestimmen oder um Personen im Rahmen von Prüfungen als Teil ihrer Ausbildung oder als Voraussetzung dafür zu bewerten, sollten als hochriskant angesehen werden, da sie über den Verlauf der Bildung und des Berufslebens einer Person entscheiden und daher ihre Fähigkeit beeinträchtigen können, ihren Lebensunterhalt zu sichern. Bei unsachgemäßer Konzeption und Verwendung können solche Systeme das Recht auf allgemeine und berufliche Bildung sowie das Recht auf Nichtdiskriminierung verletzen und historische Diskriminierungsmuster fortschreiben.

(35) Die Einführung von KI-Systemen im Bildungsbereich ist von wesentlicher Bedeutung, um zur Modernisierung ganzer Bildungssysteme beizutragen, die Qualität der Bildung sowohl offline als auch online zu erhöhen und die digitale Bildung zu beschleunigen und sie somit auch einem breiteren Publikum zugänglich zu machen. KI-Systeme, die in der allgemeinen oder beruflichen Bildung eingesetzt werden, insbesondere um den Zugang von Personen zu Bildungs- und Berufsbildungseinrichtungen zu bestimmen oder ihre Zuordnung dazu zu bestimmen oder um eine Entscheidung über die Zulassung wesentlich zu beeinflussen oder um Personen im Rahmen von Prüfungen als Teil ihrer Ausbildung oder als Voraussetzung dafür zu bewerten oder um zu bewerten, ob das Bildungsniveau einer Person angemessen ist, oder um das Niveau der Bildung und Ausbildung, das Personen erhalten oder zu dem sie Zugang erhalten, wesentlich zu beeinflussen oder zu überwachen, oder KI-Systeme, die zur Überwachung und Erkennung von verbotenem Verhalten von Schülern während Prüfungen eingesetzt werden, sollten als hochriskant angesehen werden, da sie über den Verlauf der Bildung und des Berufslebens einer Person entscheiden und daher ihre Fähigkeit beeinträchtigen können, ihren Lebensunterhalt zu sichern. Bei unsachgemäßer Konzeption und Verwendung können solche Systeme sehr intrusiv sein und das Recht auf allgemeine und berufliche Bildung sowie das Recht auf Nichtdiskriminierung verletzen und historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung.

Änderungsantrag  66

 

Vorschlag für eine Verordnung

Erwägung 36

 

Vorschlag der Kommission

Geänderter Text

(36) KI-Systeme, die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen, für Entscheidungen über Beförderung und Kündigung sowie für die Zuweisung, Überwachung oder Bewertung von Personen in Arbeitsvertragsverhältnissen, sollten ebenfalls als hochriskant eingestuft werden, da diese Systeme die künftigen Karriereaussichten und die Lebensgrundlagen dieser Personen spürbar beeinflussen können. Einschlägige Arbeitsvertragsverhältnisse sollten Beschäftigte und Personen erfassen, die Dienstleistungen über Plattformen erbringen, auf die im Arbeitsprogramm der Kommission für 2021 Bezug genommen wird. Solche Personen sollten grundsätzlich nicht als Nutzer im Sinne dieser Verordnung gelten. Solche Systeme können während des gesamten Einstellungsverfahrens und bei der Bewertung, Beförderung oder Nichtbeförderung von Personen in Arbeitsvertragsverhältnissen historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung. KI-Systeme zur Überwachung der Leistung und des Verhaltens dieser Personen können sich auch auf ihre Rechte auf Datenschutz und Privatsphäre auswirken.

(36) KI-Systeme, die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen, für Entscheidungen oder für die wesentliche Beeinflussung von Entscheidungen über Einstellung, Beförderung und Kündigung, sowie KI-Systeme für die personalisierte Zuweisung von Arbeitsaufgaben auf der Grundlage von individuellem Verhalten, persönlichen Merkmalen oder biometrischen Daten, Überwachung oder Bewertung von Personen in Arbeitsvertragsverhältnissen, sollten ebenfalls als hochriskant eingestuft werden, da diese Systeme die künftigen Karriereaussichten und die Lebensgrundlagen dieser Personen und die Arbeitnehmerrechte spürbar beeinflussen können. Einschlägige Arbeitsvertragsverhältnisse sollten Beschäftigte und Personen sinnvoll erfassen, die Dienstleistungen über Plattformen erbringen, auf die im Arbeitsprogramm der Kommission für 2021 Bezug genommen wird. Solche Systeme können während des gesamten Einstellungsverfahrens und bei der Bewertung, Beförderung oder Nichtbeförderung von Personen in Arbeitsvertragsverhältnissen historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung. KI-Systeme zur Überwachung der Leistung und des Verhaltens dieser Personen können auch den Kern ihrer Grundrechte auf Datenschutz und Privatsphäre unterminieren. Diese Verordnung gilt unbeschadet der Tatsache, dass es in der Zuständigkeit der Union und der Mitgliedstaaten liegt, spezifischere Vorschriften für den Einsatz von KI-Systemen im Kontext von Beschäftigungsverhältnissen festzulegen.

Änderungsantrag  67

 

Vorschlag für eine Verordnung

Erwägung 37

 

Vorschlag der Kommission

Geänderter Text

(37) Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten und Leistungen, die erforderlich sind, damit die Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie Wohnraum, Elektrizität und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die zu diesem Zweck eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, beispielsweise aufgrund der rassischen oder ethnischen Herkunft, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Angesichts des sehr begrenzten Auswirkungen und der auf dem Markt verfügbaren Alternativen ist es angezeigt, KI-Systeme zur Kreditwürdigkeitsprüfung und Kreditpunktebewertung auszunehmen, wenn sie von kleinen Anbietern für den Eigenbedarf in Betrieb genommen werden. Natürliche Personen, die staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, können sie erhebliche Auswirkungen auf die Existenzgrundlage der Menschen haben und ihre Grundrechte wie das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen. Solche Systeme sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Anwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Schließlich sollten KI-Systeme, die bei der Entsendung oder der Priorisierung der Entsendung von Rettungsdiensten eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für ihr Eigentum sehr kritischen Situationen Entscheidungen treffen.

(37) Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten, auch der Gesundheitsdienste und wesentlicher Dienstleistungen, einschließlich, jedoch nicht beschränkt auf, Wohnen, Strom, Heizung/Kühlung und Internet und Leistungen, die erforderlich sind, damit die Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie Wohnraum, Elektrizität und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die zu diesem Zweck eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, beispielsweise aufgrund der rassischen oder ethnischen Herkunft, des Geschlechts, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Jedoch sollten KI-Systeme, die nach Rechtsvorschriften der Union zur Aufdeckung von Betrug beim Angebot von Finanzdienstleistungen vorgesehen sind, nicht als Hochrisiko-Systeme gemäß dieser Verordnung angesehen werden. Natürliche Personen, die grundlegende staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, auch Gesundheitsdienste und wesentliche Dienstleistungen, einschließlich, jedoch nicht beschränkt auf, Wohnen, Strom, Heizung/Kühlung und Internet, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, können sie erhebliche Auswirkungen auf die Existenzgrundlage der Menschen haben und ihre Grundrechte wie das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen. Ähnlich können KI-Systeme, die bestimmungsgemäß verwendet werden sollen, um Entscheidungen zu treffen oder erheblichen Einfluss auf Entscheidungen in Bezug auf die Anspruchsvoraussetzungen natürlicher Personen in den Bereichen Kranken- und Lebensversicherungen zu nehmen, ebenso signifikante Auswirkungen auf die Existenzgrundlage von Menschen haben und ihre Grundrechte beeinträchtigen, wie zum Beispiel den Zugang zur Gesundheitsversorgung oder durch die Fortschreibung von Diskriminierung aufgrund persönlicher Merkmale. Solche Systeme sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Anwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Schließlich sollten KI-Systeme, die bei der Bewertung und Einstufung von Notrufen durch natürliche Personen oder der Entsendung oder der Priorisierung der Entsendung von Rettungsdiensten eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für ihr Eigentum sehr kritischen Situationen Entscheidungen treffen.

 

Änderungsantrag  68

 

Vorschlag für eine Verordnung

Erwägung 37 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(37a) In Anbetracht der Rolle und Verantwortung von Polizei- und Justizbehörden und der Auswirkungen von Entscheidungen, die sie zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Vollstreckung von strafrechtlichen Sanktionen treffen, muss der Einsatz von KI-Anwendungen bei der Strafverfolgung vor allem in Situationen als hochriskant eingestuft werden, wenn die Möglichkeit besteht, dass er beträchtliche Auswirkungen auf das Leben von Einzelpersonen hat.

Änderungsantrag  69

 

Vorschlag für eine Verordnung

Erwägung 38

 

Vorschlag der Kommission

Geänderter Text

(38) Maßnahmen von Strafverfolgungsbehörden im Zusammenhang mit bestimmten Verwendungen von KI-Systemen sind durch ein erhebliches Machtungleichgewicht gekennzeichnet und können zur Überwachung, Festnahme oder zum Entzug der Freiheit einer natürlichen Person sowie zu anderen nachteiligen Auswirkungen auf die in der Charta verankerten Grundrechte führen. Insbesondere wenn das KI-System nicht mit hochwertigen Daten trainiert wird, die Anforderungen an seine Genauigkeit oder Robustheit nicht erfüllt werden oder das System nicht ordnungsgemäß konzipiert und getestet wird, bevor es in Verkehr gebracht oder in anderer Weise in Betrieb genommen wird, kann es Personen in diskriminierender oder anderweitig falscher oder ungerechter Weise ausgrenzen. Darüber hinaus könnte die Ausübung wichtiger verfahrensrechtlicher Grundrechte wie des Rechts auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht sowie die Unschuldsvermutung und Verteidigungsrechte behindert werden, insbesondere wenn solche KI-Systeme nicht hinreichend transparent, erklärbar und dokumentiert sind. Daher ist es angezeigt, eine Reihe von KI-Systemen, die im Rahmen der Strafverfolgung eingesetzt werden sollen und bei denen Genauigkeit, Zuverlässigkeit und Transparenz besonders wichtig sind, als hochriskant einzustufen, um nachteilige Auswirkungen zu vermeiden, das Vertrauen der Öffentlichkeit zu erhalten und die Rechenschaftspflicht und einen wirksamen Rechtsschutz zu gewährleisten. Angesichts der Art der betreffenden Tätigkeiten und der damit verbundenen Risiken sollten diese Hochrisiko-KI-Systeme insbesondere KI-Systeme umfassen, die von Strafverfolgungsbehörden für individuelle Risikobewertungen, als Lügendetektoren und ähnliche Instrumente oder zur Ermittlung des emotionalen Zustands natürlicher Personen, zur Aufdeckung von „Deepfakes“, zur Bewertung der Zuverlässigkeit von Beweismitteln in Strafverfahren, zur Vorhersage des Auftretens oder erneuten Auftretens einer tatsächlichen oder potenziellen Straftat auf der Grundlage des Profils natürlicher Personen oder zur Bewertung von Persönlichkeitsmerkmalen und Eigenschaften oder vergangenen kriminellen Verhaltens von natürlichen Personen oder Gruppen, zur Erstellung eines Profils während der Aufdeckung, Untersuchung oder strafrechtlichen Verfolgung einer Straftat sowie zur Kriminalanalyse in Bezug auf natürliche Personen eingesetzt werden. KI-Systeme, die speziell für Verwaltungsverfahren in Steuer- und Zollbehörden bestimmt sind, sollten nicht als Hochrisiko-KI-Systeme gelten, die von Strafverfolgungsbehörden zum Zwecke der Verhütung, Aufdeckung, Untersuchung und strafrechtlichen Verfolgung von Straftaten eingesetzt werden.

(38) Maßnahmen von Strafverfolgungsbehörden im Zusammenhang mit bestimmten Verwendungen von KI-Systemen sind durch ein erhebliches Machtungleichgewicht gekennzeichnet und können zur Überwachung, Festnahme oder zum Entzug der Freiheit einer natürlichen Person sowie zu anderen nachteiligen Auswirkungen auf die in der Charta verankerten Grundrechte führen. Insbesondere wenn das KI-System nicht mit hochwertigen Daten trainiert wird, die Anforderungen an seine Leistung, Genauigkeit oder Robustheit nicht erfüllt werden oder das System nicht ordnungsgemäß konzipiert und getestet wird, bevor es in Verkehr gebracht oder in anderer Weise in Betrieb genommen wird, kann es Personen in diskriminierender oder anderweitig falscher oder ungerechter Weise ausgrenzen. Darüber hinaus könnte die Ausübung wichtiger verfahrensrechtlicher Grundrechte wie des Rechts auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht sowie die Unschuldsvermutung und Verteidigungsrechte behindert werden, insbesondere wenn solche KI-Systeme nicht hinreichend transparent, erklärbar und dokumentiert sind. Daher ist es angezeigt, eine Reihe von KI-Systemen, die im Rahmen der Strafverfolgung eingesetzt werden sollen und bei denen Genauigkeit, Zuverlässigkeit und Transparenz besonders wichtig sind, als hochriskant einzustufen, um nachteilige Auswirkungen zu vermeiden, das Vertrauen der Öffentlichkeit zu erhalten und die Rechenschaftspflicht und einen wirksamen Rechtsschutz zu gewährleisten. Angesichts der Art der betreffenden Tätigkeiten und der damit verbundenen Risiken sollten diese Hochrisiko-KI-Systeme insbesondere KI-Systeme umfassen, die von Strafverfolgungsbehörden oder in ihrem Auftrag oder von Organen, Einrichtungen und sonstigen Stellen der Union als Lügendetektoren und ähnliche Instrumente zur Bewertung der Zuverlässigkeit von Beweismitteln in Strafverfahren, zur Erstellung eines Profils während der Aufdeckung, Untersuchung oder strafrechtlichen Verfolgung einer Straftat sowie zur Kriminalanalyse in Bezug auf natürliche Personen eingesetzt werden, sofern deren Verwendung gemäß den relevanten nationalen Rechtsvorschriften und denen der Union zugelassen ist. KI-Systeme, die speziell für Verwaltungsverfahren in Steuer- und Zollbehörden bestimmt sind, sollten nicht als Hochrisiko-KI-Systeme eingestuft werden, die von Strafverfolgungsbehörden zum Zwecke der Verhütung, Aufdeckung, Untersuchung und strafrechtlichen Verfolgung von Straftaten eingesetzt werden. Der Einsatz von KI-Instrumenten durch Strafverfolgungs- und Justizbehörden sollte nicht zu einem Faktor der Ungleichheit, der sozialen Spaltung oder der Ausgrenzung werden. Die Auswirkungen des Einsatzes von KI-Instrumenten auf die Verteidigungsrechte von Verdächtigen sollten nicht außer Acht gelassen werden, insbesondere nicht die Schwierigkeit, aussagekräftige Informationen über ihre Funktionsweise zu erhalten, und die daraus resultierende Schwierigkeit der Anfechtung ihrer Ergebnisse vor Gericht, insbesondere durch Personen, gegen die ermittelt wird.

Änderungsantrag  70

 

Vorschlag für eine Verordnung

Erwägung 39

 

Vorschlag der Kommission

Geänderter Text

(39) KI-Systeme, die in den Bereichen Migration, Asyl und Grenzkontrolle eingesetzt werden, betreffen Menschen, die sich häufig in einer besonders prekären Lage befinden und vom Ergebnis der Maßnahmen der zuständigen Behörden abhängig sind. Die Genauigkeit, der nichtdiskriminierende Charakter und die Transparenz der KI-Systeme, die in solchen Zusammenhängen eingesetzt werden, sind daher besonders wichtig, um die Achtung der Grundrechte der betroffenen Personen, insbesondere ihrer Rechte auf Freizügigkeit, Nichtdiskriminierung, den Schutz des Privatlebens und personenbezogener Daten, den internationalen Schutz und die gute Verwaltung, zu gewährleisten. Daher ist es angezeigt, KI-Systeme als hochriskant einzustufen, die von den zuständigen mit Aufgaben in den Bereichen Migration, Asyl und Grenzkontrolle betrauten Behörden für Folgendes eingesetzt werden: als Lügendetektoren und ähnliche Instrumente oder zur Ermittlung des emotionalen Zustand einer natürlichen Person; zur Bewertung bestimmter Risiken, die von natürlichen Personen ausgehen, die in das Hoheitsgebiet eines Mitgliedstaats einreisen oder ein Visum oder Asyl beantragen; zur Überprüfung der Echtheit der einschlägigen Dokumente natürlicher Personen; zur Unterstützung der zuständigen Behörden bei der Prüfung von Asyl- und Visumanträgen sowie Aufenthaltstiteln und damit verbundenen Beschwerden im Hinblick darauf, die Berechtigung der den Antrag stellenden natürlichen Personen festzustellen. KI-Systeme im Bereich Migration, Asyl und Grenzkontrolle, die unter diese Verordnung fallen, sollten den einschlägigen Verfahrensvorschriften der Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates49, der Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates und anderen einschlägigen Rechtsvorschriften entsprechen.

(39) KI-Systeme, die in den Bereichen Migration, Asyl und Grenzkontrolle eingesetzt werden, betreffen Menschen, die sich häufig in einer besonders prekären Lage befinden und vom Ergebnis der Maßnahmen der zuständigen Behörden abhängig sind. Die Genauigkeit, der nichtdiskriminierende Charakter und die Transparenz der KI-Systeme, die in solchen Zusammenhängen eingesetzt werden, sind daher besonders wichtig, um die Achtung der Grundrechte der betroffenen Personen, insbesondere ihrer Rechte auf Freizügigkeit, Nichtdiskriminierung, den Schutz des Privatlebens und personenbezogener Daten, den internationalen Schutz und die gute Verwaltung, zu gewährleisten. Daher ist es angezeigt, KI-Systeme als hochriskant einzustufen, die von den zuständigen mit Aufgaben in den Bereichen Migration, Asyl und Grenzkontrolle betrauten Behörden oder den Organen, Einrichtungen und sonstigen Stellen der Union oder in ihrem Auftrag als Lügendetektoren und ähnliche Instrumente – sofern ihr Einsatz gemäß den relevanten nationalen Rechtsvorschriften oder denen der Union gestattet ist – oder zur Bewertung bestimmter Risiken eingesetzt werden, die von natürlichen Personen ausgehen, die in das Hoheitsgebiet eines Mitgliedstaats einreisen oder ein Visum oder Asyl beantragen; zur Überprüfung der Echtheit der einschlägigen Dokumente natürlicher Personen; zur Unterstützung der zuständigen Behörden bei der Prüfung und Bewertung des Wahrheitsgehalts von Nachweisen von Asyl- und Visumanträgen sowie Aufenthaltstiteln und damit verbundenen Beschwerden im Hinblick darauf, die Berechtigung der den Antrag stellenden natürlichen Personen festzustellen; zur Überwachung, Kontrolle oder Verarbeitung von personenbezogenen Daten im Zusammenhang mit Grenzkontrolltätigkeiten zur Ortung, Erkennung oder Identifizierung von natürlichen Personen; für Prognosen oder Vorhersagen von Trends im Zusammenhang mit Migrationsbewegungen und Grenzüberschreitungen. KI-Systeme im Bereich Migration, Asyl und Grenzkontrolle, die unter diese Verordnung fallen, sollten den einschlägigen Verfahrensvorschriften der Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates49, der Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates und anderen einschlägigen Rechtsvorschriften entsprechen. KI-Systeme, die in den Bereichen Migration, Asyl und Grenzkontrolle eingesetzt werden, sollten unter keinen Umständen von Mitgliedstaaten oder Organen, Einrichtungen und sonstigen Stellen der Union als Mittel zur Umgehung ihrer internationalen Verpflichtungen gemäß dem Genfer Abkommen vom 28. Juli 1951 über die Rechtsstellung der Flüchtlinge in der Fassung des Protokolls von New York vom 31. Januar 1967 genutzt noch unter Verstoß gegen den Grundsatz der Nichtzurückweisung oder zur Verweigerung sicherer und effektiver rechtmäßiger Wege in das Gebiet der Union gegenüber Asylsuchenden, auch in Bezug auf das Recht auf internationalen Schutz, verwendet werden.

__________________

__________________

49 Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates vom 26. Juni 2013 zu gemeinsamen Verfahren für die Zuerkennung und Aberkennung des internationalen Schutzes (ABl. L 180 vom 29.6.2013, S. 60).

49 Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates vom 26. Juni 2013 zu gemeinsamen Verfahren für die Zuerkennung und Aberkennung des internationalen Schutzes (ABl. L 180 vom 29.6.2013, S. 60).

50 Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates vom 13. Juli 2009 über einen Visakodex der Gemeinschaft (Visakodex) (ABl. L 243 vom 15.9.2009, S. 1).

50 Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates vom 13. Juli 2009 über einen Visakodex der Gemeinschaft (Visakodex) (ABl. L 243 vom 15.9.2009, S. 1).

Änderungsantrag  71

 

Vorschlag für eine Verordnung

Erwägung 40

 

Vorschlag der Kommission

Geänderter Text

(40) Bestimmte KI-Systeme, die für die Rechtspflege und demokratische Prozesse bestimmt sind, sollten angesichts ihrer möglichen erheblichen Auswirkungen auf die Demokratie, die Rechtsstaatlichkeit, die individuellen Freiheiten sowie das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht als hochriskant eingestuft werden. Um insbesondere den Risiken möglicher Verzerrungen, Fehler und Undurchsichtigkeiten zu begegnen, sollten KI-Systeme, die Justizbehörden dabei helfen sollen, Sachverhalte und Rechtsvorschriften zu ermitteln und auszulegen und das Recht auf konkrete Sachverhalte anzuwenden, als hochriskant eingestuft werden. Diese Einstufung sollte sich jedoch nicht auf KI-Systeme erstrecken, die für rein begleitende Verwaltungstätigkeiten bestimmt sind, die die tatsächliche Rechtspflege in Einzelfällen nicht beeinträchtigen, wie die Anonymisierung oder Pseudonymisierung gerichtlicher Urteile, Dokumente oder Daten, die Kommunikation zwischen dem Personal, Verwaltungsaufgaben oder die Zuweisung von Ressourcen.

(40) Bestimmte KI-Systeme, die für die Rechtspflege und demokratische Prozesse bestimmt sind, sollten angesichts ihrer möglichen erheblichen Auswirkungen auf die Demokratie, die Rechtsstaatlichkeit, die individuellen Freiheiten sowie das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht als hochriskant eingestuft werden. Um insbesondere den Risiken möglicher Verzerrungen, Fehler und Undurchsichtigkeiten zu begegnen, sollten KI-Systeme, die von einer Justiz- oder Verwaltungsbehörde oder in ihrem Auftrag dazu eingesetzt werden, diese Justiz- oder Verwaltungsbehörde dabei zu unterstützen, Sachverhalte und Rechtsvorschriften zu ermitteln und auszulegen und das Recht auf konkrete Sachverhalte anzuwenden, oder auf ähnliche Weise in einem alternativem Streitbeilegungsverfahren eingesetzt werden, als hochriskant eingestuft werden. Der Einsatz von Instrumenten mit künstlicher Intelligenz kann die Entscheidungsgewalt von Richtern oder die Unabhängigkeit der Justiz unterstützen, sollte sie aber nicht ersetzen, da die endgültige Entscheidungsfindung eine von Menschen geleitete Tätigkeit und Entscheidung bleiben muss. Diese Einstufung sollte sich jedoch nicht auf KI-Systeme erstrecken, die für rein begleitende Verwaltungstätigkeiten bestimmt sind, die die tatsächliche Rechtspflege in Einzelfällen nicht beeinträchtigen, wie die Anonymisierung oder Pseudonymisierung gerichtlicher Urteile, Dokumente oder Daten, die Kommunikation zwischen dem Personal, Verwaltungsaufgaben oder die Zuweisung von Ressourcen.

Änderungsantrag  72

 

Vorschlag für eine Verordnung

Erwägung 40 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(40a) Um die Risiken eines unzulässigen externen Eingriffs in das in Artikel 39 der Charta verankerte Wahlrecht und unverhältnismäßige Auswirkungen auf demokratische Verfahren, die Demokratie und die Rechtsstaatlichkeit anzugehen, sollten KI-Systeme, die bestimmungsgemäß verwendet werden sollen, um das Ergebnis einer Wahl oder eines Referendums oder das Wahlverhalten natürlicher Personen bei der Ausübung ihres Wahlrechts in einer Wahl oder in Referenden zu beeinflussen, als Hochrisiko-KI-Systeme eingestuft werden, mit Ausnahme von KI-Systemen, deren Ergebnissen natürliche Personen nicht direkt ausgesetzt sind, wie Instrumente zur Organisation, Optimierung und Strukturierung politischer Kampagnen in administrativer und logistischer Hinsicht.

Änderungsantrag  73

 

Vorschlag für eine Verordnung

Erwägung 40 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(40b) Angesichts der Anzahl natürlicher Personen, die die Dienste nutzen, die von Social-Media-Plattformen bereitgestellt werden, die als sehr große Online-Plattformen gelten, können solche Online-Plattformen auf eine Weise eingesetzt werden, die die Online-Sicherheit stark gefährdet und die öffentliche Meinung und den öffentlichen Diskurs sowie Wahlverfahren und demokratische Prozesse oder soziale Belange stark beeinflusst. Es ist daher angezeigt, dass KI-Systeme, die von diesen Online-Plattformen in ihren Empfehlungssystemen verwendet werden, unter diese Verordnung fallen, um sicherzustellen, dass die KI-Systeme die in dieser Verordnung festgelegten Anforderungen erfüllen, einschließlich technischer Vorschriften in den Bereichen Datenverwaltung, technische Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit der Daten. Durch die Einhaltung der Bestimmungen dieser Verordnung sollte es den Betreibern sehr großer Online-Plattformen möglich sein, die umfassenderen Verpflichtungen zur Risikobewertung und Risikominderung gemäß Artikel 34 und 35 der Verordnung (EU) 2022/2065 zu erfüllen. Die Verpflichtungen gemäß der vorliegenden Verordnung lassen die Bestimmungen der Verordnung (EU) 2022/2065 unberührt und sollten die gemäß der Verordnung (EU) 2022/2065 festgesetzten Verpflichtungen in Fällen, in denen die soziale Medienplattform als sehr große Online-Plattform eingestuft wurde, ergänzen. Angesichts der europaweiten Auswirkungen von Social-Media-Plattformen, die als sehr große Online-Plattformen eingestuft wurden, sollten die nach Verordnung (EU) 2022/2065 festgelegten Behörden für die Zwecke der Durchsetzung dieser Bestimmung als Strafverfolgungsbehörden fungieren.

Änderungsantrag  74

 

Vorschlag für eine Verordnung

Erwägung 41

 

Vorschlag der Kommission

Geänderter Text

(41) Die Tatsache, dass ein KI-System gemäß dieser Verordnung als hochriskant eingestuft wird, sollte nicht dahingehend ausgelegt werden, dass die Verwendung des Systems nach anderen Rechtsakten der Union oder nach nationalen Rechtsvorschriften, die mit dem Unionsrecht vereinbar sind, zwangsläufig rechtmäßig ist, beispielsweise in Bezug auf den Schutz personenbezogener Daten, die Verwendung von Lügendetektoren und ähnlichen Instrumenten oder anderen Systemen zur Ermittlung des emotionalen Zustand einer natürlichen Person. Eine solche Verwendung sollte weiterhin ausschließlich im Einklang mit den geltenden Anforderungen erfolgen, die sich aus der Charta, dem anwendbaren Sekundärrecht der Union und nationalen Recht ergeben. Diese Verordnung sollte nicht so verstanden werden, dass sie eine Rechtsgrundlage für die Verarbeitung personenbezogener Daten bildet, auch nicht für besondere Kategorien personenbezogener Daten.

(41) Die Tatsache, dass ein KI-System gemäß dieser Verordnung als hochriskantes KI-System eingestuft wird, sollte nicht dahingehend ausgelegt werden, dass die Verwendung des Systems nach anderen Rechtsakten der Union oder nach nationalen Rechtsvorschriften, die mit dem Unionsrecht vereinbar sind, zwangsläufig rechtmäßig oder nicht rechtmäßig ist, beispielsweise in Bezug auf den Schutz personenbezogener Daten. Eine solche Verwendung sollte weiterhin ausschließlich im Einklang mit den geltenden Anforderungen erfolgen, die sich aus der Charta, dem anwendbaren Sekundärrecht der Union und nationalen Recht ergeben.

Änderungsantrag  75

 

Vorschlag für eine Verordnung

Erwägung 41 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(41a) Eine gewisse Anzahl von verbindlichen Rechtsvorschriften auf Unions-, nationaler und internationaler Ebene, die für KI-Systeme relevant sind, gelten bereits, unter anderem das Primärrecht der EU (die EU-Verträge und die EU-Grundrechtecharta), das Sekundärrecht der EU (etwa die Datenschutzgrundverordnung, die Produkthaftungsrichtlinie, die Verordnung über den freien Verkehr nicht personenbezogener Daten, Antidiskriminierungsrichtlinien, das Verbraucherschutzrecht sowie die Richtlinien über Sicherheit und Gesundheitsschutz am Arbeitsplatz), die UN-Menschenrechtsübereinkommen, die Konventionen des Europarats (wie die Europäische Menschenrechtskonvention) sowie zahlreiche nationale Gesetze. Neben bereichsübergreifenden gibt es auch verschiedene fachspezifische Vorschriften, die für bestimmte KI-Anwendungen gelten (etwa die Verordnung über Medizinprodukte).

Änderungsantrag  76

 

Vorschlag für eine Verordnung

Erwägung 42

 

Vorschlag der Kommission

Geänderter Text

(42) Zur Minderung der Risiken für Nutzer und betroffene Personen, die von auf dem Unionsmarkt in Verkehr gebrachten oder anderweitig in Betrieb genommenen Hochrisiko-KI-Systemen ausgehen, sollten bestimmte verbindliche Anforderungen gelten, wobei der Zweckbestimmung des Systems und dem vom Anbieter einzurichtenden Risikomanagementsystem Rechnung zu tragen ist.

(42) Zur Minderung der Risiken für Betreiber und betroffene Personen, die von auf dem Unionsmarkt in Verkehr gebrachten oder anderweitig in Betrieb genommenen Hochrisiko-KI-Systemen ausgehen, sollten bestimmte verbindliche Anforderungen gelten, wobei der Zweckbestimmung des Systems sowie der vernünftigerweise vorhersehbaren Fehlanwendung und dem vom Anbieter einzurichtenden Risikomanagementsystem Rechnung zu tragen ist. Diese Anforderungen sollten zielorientiert, zweckdienlich, angemessen und wirksam sein, ohne den Akteuren unangemessene zusätzliche regulatorische Belastungen oder Kosten aufzubürden.

Änderungsantrag  77

 

Vorschlag für eine Verordnung

Erwägung 43

 

Vorschlag der Kommission

Geänderter Text

(43) Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf die Qualität der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Nutzer, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Cybersicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für die Gesundheit, die Sicherheit und die Grundrechte entsprechend der Zweckbestimmung des Systems wirksam zu mindern, und es stehen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung, sodass ungerechtfertigte Handelsbeschränkungen vermieden werden.

(43) Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf die Qualität und Relevanz der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Betreiber, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Sicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für die Gesundheit, die Sicherheit und die Grundrechte sowie der Umwelt, Demokratie und Rechtsstaatlichkeit entsprechend der Zweckbestimmung oder vernünftigerweise vorhersehbaren Fehlanwendung des Systems wirksam zu mindern, und es stehen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung, sodass ungerechtfertigte Handelsbeschränkungen vermieden werden.

Änderungsantrag  78

 

Vorschlag für eine Verordnung

Erwägung 44

 

Vorschlag der Kommission

Geänderter Text

(44) Eine hohe Datenqualität ist für die Leistung vieler KI-Systeme von wesentlicher Bedeutung, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten-Governance- und Datenverwaltungsverfahren umgesetzt werden. Die Trainings-, Validierungs- und Testdatensätze sollten im Hinblick auf die Zweckbestimmung des Systems hinreichend relevant, repräsentativ, fehlerfrei und vollständig sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu beobachten, zu erkennen und zu korrigieren.

(44) Ein Zugang zu einer hohen Datenqualität spielt eine zentrale Rolle bei der Bereitstellung von Strukturen und für die Sicherstellung der Leistung vieler KI-Systeme, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten-Governance- und Datenverwaltungsverfahren umgesetzt werden. Trainings- und – falls zutreffend – Validierungs- und Testdatensätze, einschließlich der Kennzeichnungen, sollten im Hinblick auf die Zweckbestimmung des Systems hinreichend relevant, repräsentativ sowie ordnungsgemäß auf Fehler überprüft und so vollständig wie möglich sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll, mit besonderem Augenmerk auf die Minderung möglicher Verzerrungen in den Datensätzen, die zu Risiken für die Grundrechte oder zu diskriminierenden Ergebnissen für die von dem Hochrisiko-KI-System betroffenen Personen führen könnten. Verzerrungen können zum Beispiel, insbesondere bei Verwendung historischer Daten, den zugrunde liegenden Datensätzen innewohnen sowie von den Entwicklern der Algorithmen eingeführt oder bei der Implementierung der Systeme in der realen Welt generiert werden. Die von einem KI-System ausgegebenen Ergebnisse werden durch solche inhärenten Verzerrungen beeinflusst und haben die Tendenz, allmählich zuzunehmen und dadurch bestehende Diskriminierungen fortzusetzen und zu verstärken, insbesondere im Hinblick auf Personen, die bestimmten ethnischen Gruppen oder aufgrund von Rassismus benachteiligten Gemeinschaften angehören. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, kontext- und verhaltensbezogenen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter – ausnahmsweise und nach Anwendung aller geltenden Bedingungen, die in dieser Verordnung und in der Verordnung (EU) 2016/679, der Richtlinie (EU) 2016/680 und der Verordnung (EU) 2018/1725 festgelegt sind – angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu erkennen und zu korrigieren. Negative Verzerrungen sollten als Verzerrungen verstanden werden, durch die direkte oder indirekte diskriminierende Auswirkungen in Bezug auf eine natürliche Person entstehen. Die Anforderungen in Bezug auf die Datenverwaltung können erfüllt werden, indem auf Dritte zurückgegriffen wird, die zertifizierte Konformitätsdienstleistungen anbieten, einschließlich der Überprüfung der Datenverwaltung, der Integrität der Datensätze und der Datenschulungs-, Validierungs- und Testverfahren.

Änderungsantrag  79

 

Vorschlag für eine Verordnung

Erwägung 45

 

Vorschlag der Kommission

Geänderter Text

(45) Für die Entwicklung von Hochrisiko-KI-Systemen sollten bestimmte Akteure wie Anbieter, notifizierte Stellen und andere einschlägige Stellen wie Zentren für digitale Innovation, Erprobungs- und Versuchseinrichtungen und Forscher in der Lage sein, in ihren jeweiligen Tätigkeitsbereichen, die mit dieser Verordnung in Zusammenhang stehen, auf hochwertige Datensätze zuzugreifen und diese zu nutzen. Die von der Kommission eingerichteten gemeinsamen europäischen Datenräume und die Erleichterung des Datenaustauschs im öffentlichen Interesse zwischen Unternehmen und mit Behörden werden entscheidend dazu beitragen, einen vertrauensvollen, rechenschaftspflichtigen und diskriminierungsfreien Zugang zu hochwertigen Daten für das Training, die Validierung und das Testen von KI-Systemen zu gewährleisten. Im Gesundheitsbereich beispielsweise wird der europäische Raum für Gesundheitsdaten den diskriminierungsfreien Zugang zu Gesundheitsdaten und das Training von KI-Algorithmen mithilfe dieser Datensätze erleichtern, und zwar unter Wahrung der Privatsphäre, auf sichere, zeitnahe, transparente und vertrauenswürdige Weise und unter angemessener institutioneller Leitung. Die einschlägigen zuständigen Behörden, einschließlich sektoraler Behörden, die den Zugang zu Daten bereitstellen oder unterstützen, können auch die Bereitstellung hochwertiger Daten für das Training, die Validierung und das Testen von KI-Systemen unterstützen.

(45) Für die Entwicklung und Bewertung von Hochrisiko-KI-Systemen sollten bestimmte Akteure wie Anbieter, notifizierte Stellen und andere einschlägige Stellen wie Zentren für digitale Innovation, Erprobungs- und Versuchseinrichtungen und Forscher in der Lage sein, in ihren jeweiligen Tätigkeitsbereichen, die mit dieser Verordnung in Zusammenhang stehen, auf hochwertige Datensätze zuzugreifen und diese zu nutzen. Die von der Kommission eingerichteten gemeinsamen europäischen Datenräume und die Erleichterung des Datenaustauschs im öffentlichen Interesse zwischen Unternehmen und mit Behörden werden entscheidend dazu beitragen, einen vertrauensvollen, rechenschaftspflichtigen und diskriminierungsfreien Zugang zu hochwertigen Daten für das Training, die Validierung und das Testen von KI-Systemen zu gewährleisten. Im Gesundheitsbereich beispielsweise wird der europäische Raum für Gesundheitsdaten den diskriminierungsfreien Zugang zu Gesundheitsdaten und das Training von KI-Algorithmen mithilfe dieser Datensätze erleichtern, und zwar unter Wahrung der Privatsphäre, auf sichere, zeitnahe, transparente und vertrauenswürdige Weise und unter angemessener institutioneller Leitung. Die einschlägigen zuständigen Behörden, einschließlich sektoraler Behörden, die den Zugang zu Daten bereitstellen oder unterstützen, können auch die Bereitstellung hochwertiger Daten für das Training, die Validierung und das Testen von KI-Systemen unterstützen.

Änderungsantrag  80

 

Vorschlag für eine Verordnung

Erwägung 45 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(45a) Das Recht auf Privatsphäre und den Schutz personenbezogener Daten muss während des gesamten Lebenszyklus des KI-Systems sichergestellt sein. In dieser Hinsicht sind die Grundsätze der Datenminimierung und des Datenschutzes durch Technikgestaltung und datenschutzfreundliche Voreinstellungen, wie sie im Datenschutzrecht der Union festgelegt sind, von wesentlicher Bedeutung, wenn die Verarbeitung von Daten erhebliche Risiken für die Grundrechte natürlicher Personen birgt. Anbieter und Nutzer von KI-Systemen sollten dem Stand der Technik entsprechende technische und organisatorische Maßnahmen ergreifen, um diese Rechte zu schützen. Zu diesen Maßnahmen gehören nicht nur die Anonymisierung und Verschlüsselung, sondern auch der Einsatz zunehmend verfügbarer Technik, die es ermöglicht, Algorithmen direkt am Ort der Datenerzeugung einzusetzen und wertvolle Erkenntnisse zu gewinnen, ohne dass die Daten zwischen den Parteien übertragen bzw. die Rohdaten oder strukturierten Daten selbst unnötig kopiert werden.

Änderungsantrag  81

 

Vorschlag für eine Verordnung

Erwägung 46

 

Vorschlag der Kommission

Geänderter Text

(46) Informationen darüber, wie Hochrisiko-KI-Systeme entwickelt wurden und wie sie während ihres gesamten Lebenszyklus funktionieren, sind unerlässlich, um die Einhaltung der Anforderungen dieser Verordnung überprüfen zu können. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten, Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen. Die technische Dokumentation sollte stets auf dem neuesten Stand gehalten werden.

(46) Umfassende Informationen darüber, wie Hochrisiko-KI-Systeme entwickelt wurden und wie sie während ihrer gesamten Lebensdauer funktionieren, sind unerlässlich, um die Einhaltung der Anforderungen dieser Verordnung überprüfen zu können. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten, Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen. Die technische Dokumentation sollte während des gesamten Lebenszyklus des KI-Systems stets auf einem angemessenen Stand gehalten werden. KI-Systeme können während ihres gesamten Lebenszyklus wesentliche Auswirkungen auf die Umwelt und einen hohen Energieverbrauch haben. Um die Auswirkungen von KI-Systemen auf die Umwelt besser erfassen zu können, sollte die von den Anbietern erstellte technische Dokumentation Informationen zum Energieverbrauch des KI-Systems enthalten, einschließlich des Verbrauchs während der Entwicklung und des erwarteten Verbrauchs während der Nutzung. Bei diesen Informationen sollten die einschlägigen nationalen Rechtsvorschriften und Rechtsvorschriften der Union berücksichtigt werden. Die übermittelten Informationen sollten verständlich, vergleichbar und überprüfbar sein und zu diesem Zweck sollte die Kommission Leitlinien zu einer harmonisierten Methode für die Berechnung und Meldung solcher Informationen entwickeln. Um sicherzustellen, dass eine einzige technische Dokumentation erstellt werden kann, sollten die diese Dokumentation betreffenden Begriffe und Definitionen und jegliche anderen Dokumentationen in den einschlägigen Rechtsvorschriften so weit wie möglich angeglichen werden.

Änderungsantrag  82

 

Vorschlag für eine Verordnung

Erwägung 46 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(46a) Hochrisiko-KI-Systeme müssen modernste Methoden und einschlägige geltende Normen berücksichtigen, um den Energie- und Ressourcenverbrauch sowie die Abfallerzeugung zu verringern und die Energieeffizienz sowie die Gesamteffizienz des Systems zu erhöhen. Die Umweltaspekte von KI-Systemen, die für die Zwecke dieser Verordnung signifikant sind, sind der Energieverbrauch des KI-Systems während der Entwicklungs-, Trainings- und Einführungsphase sowie bei der Aufzeichnung, Meldung und Speicherung dieser Daten. Durch die Konzeption von KI-Systemen sollte es möglich sein, den Energieverbrauch und die Energieressourcen während jeder Phase der Entwicklung, des Trainings und des Einsatzes zu messen und aufzuzeichnen. Die Beobachtung und Meldung der Emissionen von KI-Systemen muss robust, transparent, kohärent und genau sein. Um eine einheitliche Anwendung dieser Verordnung und ein stabiles rechtliches Umfeld für die Anbieter und Betreiber im Binnenmarkt sicherzustellen, sollte die Kommission eine gemeinsame Spezifikation für die Methodik entwickeln, damit die Berichterstattungs- und Dokumentierungspflichten zum Energieverbrauch und den Ressourcen während der Entwicklung, des Trainings und des Einsatzes von KI-Systemen erfüllt werden. Auf der Grundlage solcher gemeinsamer Spezifikationen kann eine Messmethode zur Erstellung eines Entwurfs eines Referenzszenarios entwickelt werden, mit der die Kommission – nachdem eine Folgenabschätzung unter Berücksichtigung des geltenden Rechts durchgeführt wurde – besser darüber entscheiden kann, ob künftige regulatorische Eingriffe erforderlich sind.

Änderungsantrag  83

 

Vorschlag für eine Verordnung

Erwägung 46 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(46b) Um die Ziele dieser Verordnung zu erreichen und zu den Umweltzielen der Union beizutragen und gleichzeitig das reibungslose Funktionieren des Binnenmarkts sicherzustellen, könnte es erforderlich sein, Empfehlungen und Leitlinien zu erstellen und – letztendlich – auch Nachhaltigkeitsziele. Zu diesem Zweck ist die Kommission befugt, eine Methodik zu entwickeln, um damit zur Erstellung wesentlicher Leistungsindikatoren und eines Bezugsrahmens für die Nachhaltigkeitsziele der Vereinten Nationen beizutragen. Das Ziel sollte es vor allem sein, einen gerechten Vergleich zwischen den verschiedenen Möglichkeiten zur Umsetzung von KI zu ermöglichen, indem Anreize geschaffen werden, um die Nutzung effizienterer KI-Technologien in den Bereichen Energie und Ressourcen zu fördern. Um diese Ziele zu erreichen, sollten durch diese Verordnung die Mittel bereitgestellt werden, um eine grundlegende Datensammlung zu den gemeldeten Daten zu Emissionen zu erstellen, die während der Entwicklung, des Trainings und des Einsatzes von KI-Systemen entstehen.

Änderungsantrag  84

 

Vorschlag für eine Verordnung

Erwägung 47 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(47a) Solche Anforderungen an Transparenz und Nachvollziehbarkeit der KI-Entscheidungsfindung sollten auch dazu beitragen, den abschreckenden Auswirkungen digitaler Asymmetrie und sogenannter „Dark Patterns“ entgegenzuwirken, die auf Einzelpersonen und ihre Einwilligung nach Aufklärung abzielen.

Änderungsantrag  85

 

Vorschlag für eine Verordnung

Erwägung 49

 

Vorschlag der Kommission

Geänderter Text

(49) Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit entsprechend dem allgemein anerkannten Stand der Technik aufweisen. Der Genauigkeitsgrad und die Genauigkeitskennzahlen sollte den Nutzern mitgeteilt werden.

(49) Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit entsprechend dem allgemein anerkannten Stand der Technik aufweisen. Leistungskennzahlen und ihre erwarteten Genauigkeitsgrade sollten mit dem vorrangigen Ziel festgelegt werden, Risiken und negative Auswirkungen des KI-Systems zu mindern. Der erwartete Grad der Leistungskennzahlen sollte den Betreibern auf klare, transparente, leicht nachvollziehbare und verständliche Weise mitgeteilt werden. Die Angabe von Leistungskennzahlen gibt keinen Aufschluss auf die künftige Leistung, sodass entsprechende Methoden angewandt werden müssen, um eine dauerhafte Leistung während der Nutzung sicherzustellen. Es sind zwar Normungsgremien vorhanden, um Normen vorzugeben, allerdings ist eine Abstimmung beim Leistungsvergleich vonnöten, um festzulegen, wie diese Standardvorgaben und -merkmale von KI-Systemen gemessen werden sollten. Der Europäische Ausschuss für künstliche Intelligenz sollte nationale und internationale Metrologie- und Benchmarking-Behörden zusammenbringen und Leitlinien herausgeben, um die technischen Aspekte der Messung der angemessenen Leistungs- und Robustheitsgrade anzugehen.

Änderungsantrag  86

 

Vorschlag für eine Verordnung

Erwägung 50

 

Vorschlag der Kommission

Geänderter Text

(50) Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandfähig gegenüber Risiken im Zusammenhang mit den Grenzen des Systems (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen) sowie gegenüber böswilligen Eingriffen sein, die die Sicherheit des KI-Systems gefährden und zu schädlichen oder anderweitig unerwünschtem Verhalten führen können. Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ergebnisse hervorbringt.

(50) Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandfähig gegenüber Risiken im Zusammenhang mit den Grenzen des Systems (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen) sowie gegenüber böswilligen Eingriffen sein, die die Sicherheit des KI-Systems gefährden und zu schädlichen oder anderweitig unerwünschtem Verhalten führen können. Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ergebnisse hervorbringt. Die Nutzer des KI-Systems sollten Maßnahmen ergreifen, um sicherzustellen, dass der mögliche Kompromiss zwischen Robustheit und Genauigkeit nicht zu diskriminierenden oder negativen Ergebnissen für Untergruppen, die Minderheiten angehören, führt.

Änderungsantrag  87

 

Vorschlag für eine Verordnung

Erwägung 51

 

Vorschlag der Kommission

Geänderter Text

(51) Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung oder Sicherheitsmerkmale zu verändern. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen daher geeignete Maßnahmen ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist.

(51) Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung oder Sicherheitsmerkmale zu verändern. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe oder Angriffe auf vertrauliche Daten) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen sowie die notifizierten Stellen, zuständigen nationalen Behörden und Marktüberwachungsbehörden daher geeignete Maßnahmen ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist. Bei Hochrisiko-KI sollten Sicherheitslösungen und Patches für die gesamte Lebensdauer des Produkts oder, falls keine Abhängigkeit von einem bestimmten Produkt besteht, für einen vom Hersteller anzugebenden Zeitraum bereitgestellt werden.

Änderungsantrag  88

 

Vorschlag für eine Verordnung

Erwägung 53 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(53a) Als Unterzeichner des Übereinkommens über die Rechte von Menschen mit Behinderungen der Vereinten Nationen (VN-BRK) sind die Union und alle Mitgliedstaaten rechtlich verpflichtet, Menschen mit Behinderungen vor Diskriminierung zu schützen und ihre Gleichstellung zu fördern, sicherzustellen, dass Menschen mit Behinderungen gleichberechtigt Zugang zu Informations- und Kommunikationstechnologien und -systemen haben, und die Achtung der Privatsphäre von Menschen mit Behinderungen sicherzustellen. Angesichts der zunehmenden Bedeutung und Nutzung von KI-Systemen sollte die strikte Anwendung der Grundsätze des universellen Designs auf alle neuen Technologien und Dienste einen vollständigen, gleichberechtigten und uneingeschränkten Zugang für alle Menschen sicherstellen, die potenziell von KI-Technologien betroffen sind oder diese nutzen, einschließlich Menschen mit Behinderungen, und zwar in einer Weise, die ihrer Würde und Vielfalt in vollem Umfang Rechnung trägt. Es ist daher von wesentlicher Bedeutung, dass die Anbieter die uneingeschränkte Einhaltung der Zugänglichkeitsanforderungen sicherstellen, einschließlich der in der Richtlinie (EU) 2016/2102 und Richtlinie (EU) 2019/882 festgelegten Anforderungen. Die Anbieter sollten die Einhaltung dieser Anforderungen durch Voreinstellungen sicherstellen. Die erforderlichen Maßnahmen sollten daher so weit wie möglich in die Konzeption von Hochrisiko-KI-Systemen integriert werden.

Änderungsantrag  89

 

Vorschlag für eine Verordnung

Erwägung 54

 

Vorschlag der Kommission

Geänderter Text

(54) Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation erstellen und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der betreffenden Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen.

(54) Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation erstellen und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Für Anbieter, die bereits Qualitätsmanagementsysteme auf der Grundlage von Normen wie der Norm ISO 9001 oder anderen einschlägigen Normen eingerichtet haben, sollte nicht ein weiteres, doppeltes Qualitätsmanagementsystem eingerichtet werden, sondern eher eine Anpassung der bereits bestehenden Systeme an bestimmte Aspekte vorgenommen werden, die mit der Einhaltung der spezifischen Anforderungen dieser Verordnung zusammenhängen. Dies sollte sich – in diesem Zusammenhang – auch in künftigen Normungstätigkeiten der Kommission oder von ihr angenommenen Leitlinien niederschlagen. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der betreffenden Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen.

Änderungsantrag  90

 

Vorschlag für eine Verordnung

Erwägung 56

 

Vorschlag der Kommission

Geänderter Text

(56) Um die Durchsetzung dieser Verordnung zu ermöglichen und gleiche Wettbewerbsbedingungen für die Akteure zu schaffen, muss unter Berücksichtigung der verschiedenen Formen der Bereitstellung digitaler Produkte sichergestellt sein, dass unter allen Umständen eine in der Union ansässige oder niedergelassene Person den Behörden alle erforderlichen Informationen über die Konformität eines KI-Systems zur Verfügung stellen kann. Daher benennen Anbieter, die außerhalb der Union niedergelassen sind, vor der Bereitstellung ihrer KI-Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten für den Fall, dass kein Einführer ermittelt werden kann.

(56) Um die Durchsetzung dieser Verordnung zu ermöglichen und gleiche Wettbewerbsbedingungen für die Akteure zu schaffen, muss unter Berücksichtigung der verschiedenen Formen der Bereitstellung digitaler Produkte sichergestellt sein, dass unter allen Umständen eine in der Union ansässige oder niedergelassene Person den Behörden alle erforderlichen Informationen über die Konformität eines KI-Systems zur Verfügung stellen kann. Daher benennen Anbieter, die außerhalb der Union niedergelassen sind, vor der Bereitstellung ihrer KI-Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten.

Änderungsantrag  91

 

Vorschlag für eine Verordnung

Erwägung 58

 

Vorschlag der Kommission

Geänderter Text

(58) Angesichts des Charakters von KI-Systemen und der Risiken für die Sicherheit und die Grundrechte, die mit ihrer Verwendung verbunden sein können, ist es angebracht, besondere Zuständigkeiten für die Nutzer festzulegen, auch im Hinblick darauf, dass eine angemessene Überwachung der Leistung eines KI-Systems unter realen Bedingungen sichergestellt werden muss. Die Nutzer sollten insbesondere Hochrisiko-KI-Systeme gemäß der Gebrauchsanweisung verwenden, und es sollten bestimmte andere Pflichten in Bezug auf die Überwachung der Funktionsweise der KI-Systeme und gegebenenfalls auch Aufzeichnungspflichten festgelegt werden.

(58) Angesichts des Charakters von KI-Systemen und der Risiken für die Sicherheit und die Grundrechte, die mit ihrer Verwendung verbunden sein können, ist es angebracht, besondere Zuständigkeiten für die Betreiber festzulegen, auch im Hinblick darauf, dass eine angemessene Überwachung der Leistung eines KI-Systems unter realen Bedingungen sichergestellt werden muss. Die Betreiber sollten insbesondere Hochrisiko-KI-Systeme gemäß der Gebrauchsanweisung verwenden, und es sollten bestimmte andere Pflichten in Bezug auf die Überwachung der Funktionsweise der KI-Systeme und gegebenenfalls auch Aufzeichnungspflichten festgelegt werden.

Änderungsantrag  92

 

Vorschlag für eine Verordnung

Erwägung 58 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(58a) Während Risiken im Zusammenhang mit KI-Systemen einerseits aus der Art und Weise entstehen können, in der solche Systeme konzipiert sind, können sie sich andererseits auch aus der Art und Weise ergeben, in der diese Systeme verwendet werden. Betreiber von Hochrisiko-KI-Systemen spielen daher eine entscheidende Rolle bei der Gewährleistung des Schutzes der Grundrechte in Ergänzung der Pflichten der Anbieter bei der Entwicklung der KI-Systeme. Betreiber können am besten verstehen, wie das Hochrisiko-KI-System konkret eingesetzt wird, weshalb sie dank einer genaueren Kenntnis des Verwendungskontextes sowie der wahrscheinlich betroffenen Personen oder Personengruppen, einschließlich marginalisierter und schutzbedürftiger Gruppen, erhebliche potenzielle Risiken erkennen können, die in der Entwicklungsphase nicht vorausgesehen wurden. In diesem spezifischen Nutzungskontext sollten die Betreiber geeignete Verwaltungsstrukturen ermitteln, wie Regelungen für menschliche Aufsicht, Verfahren für die Bearbeitung von Beschwerden sowie Rechtsbehelfe, weil die Auswahl der Verwaltungsstrukturen für die Minderung der Risiken für Grundrechte in konkreten Anwendungsfällen von entscheidender Bedeutung sein kann. Um auf wirksame Weise sicherzustellen, dass die Grundrechte geschützt werden, sollten Betreiber von Hochrisiko-KI-Systemen daher vor der Inbetriebnahme dieser Systeme eine Folgenabschätzung im Hinblick auf die Grundrechte durchführen. Der Folgenabschätzung sollte ein detaillierter Plan beigefügt werden, in dem die Maßnahmen oder Instrumente beschrieben werden, die zur Minderung der festgestellten Risiken für die Grundrechte beitragen, spätestens ab dem Zeitpunkt der Einführung des Systems. Wenn ein solcher Plan nicht ermittelt werden kann, sollten die Betreiber davon absehen, das System einzuführen. Bei der Durchführung dieser Folgenabschätzung sollte der Betreiber die nationale Aufsichtsbehörde und – so weit wie möglich – die einschlägigen Interessenträger sowie die Vertreter von Personengruppen, die wahrscheinlich von dem KI-System betroffen sein werden, benachrichtigen, um die relevanten Informationen einzuholen, die erforderlich sind, die Folgenabschätzung durchzuführen und den Betreibern wird nahegelegt, die Zusammenfassung ihrer Folgenabschätzung in Bezug auf die Grundrechte auf ihrer Online-Website öffentlich zugänglich zu machen. Diese Verpflichtung sollte – angesichts fehlender Ressourcen – nicht für KMU gelten, die möglicherweise Schwierigkeiten haben, eine solche Konsultation durchzuführen. Dennoch sollten auch KMU es anstreben, solche Vertreter einzubeziehen, wenn sie ihre Folgenabschätzung in Bezug auf die Grundrechte durchführen. Darüber hinaus sollten Betreiber von Hochrisiko-KI-Systemen, die öffentliche Behörden oder Organe, Einrichtungen und sonstige Stellen der Union sowie Betreiber, die nach Verordnung (EU) 2022/1925 als Torwächter benannte Unternehmen sind, angesichts der potenziellen Auswirkungen und der Notwendigkeit demokratischer Aufsicht und Kontrolle verpflichtet werden, die Nutzung von Hochrisiko-KI-Systemen in einer öffentlichen Datenbank zu registrieren. Andere Betreiber können die Nutzung ihrer Hochrisiko-KI-Systeme freiwillig registrieren.

Änderungsantrag  93

 

Vorschlag für eine Verordnung

Erwägung 59

 

Vorschlag der Kommission

Geänderter Text

(59) Es ist angemessen, davon auszugehen, dass der Nutzer des KI-Systems eine natürliche oder juristische Person oder eine Behörde, Einrichtung oder sonstige Stelle ist, die für den Betrieb eines KI-Systems verantwortlich ist, es sei denn, das KI-System wird im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet.

(59) Es ist angemessen, davon auszugehen, dass der Betreiber des KI-Systems eine natürliche oder juristische Person oder eine Behörde, Einrichtung oder sonstige Stelle ist, die für den Betrieb eines KI-Systems verantwortlich ist, es sei denn, das KI-System wird im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet.

Änderungsantrag  94

 

Vorschlag für eine Verordnung

Erwägung 60

 

Vorschlag der Kommission

Geänderter Text

(60) Angesichts der Komplexität der Wertschöpfungskette im Bereich der künstlichen Intelligenz sollten einschlägige Dritte, insbesondere diejenigen, die am Verkauf und der Bereitstellung von Software, Software-Tools und Komponenten, vortrainierten Modellen und Daten beteiligt sind, oder Netzdienstbetreiber gegebenenfalls mit Anbietern und Nutzern, denen die Einhaltung der Verpflichtungen aus dieser Verordnung ermöglicht werden soll, und mit den gemäß dieser Verordnung eingerichteten zuständigen Behörden zusammenarbeiten.

(60) Innerhalb der KI-Wertschöpfungskette liefern häufig mehrere Unternehmen Tools und Dienstleistungen, aber auch Komponenten oder Prozesse, die dann vom Anbieter in das KI-System integriert werden, u. a. in Bezug auf die Datenerfassung und -vorverarbeitung, das Trainieren, Umtrainieren, Testen und Bewerten von Modellen, die Integration in Software oder andere Aspekte der Modellentwicklung. Die beteiligten Unternehmen können ihr Angebot direkt oder indirekt über Schnittstellen wie Anwendungsprogrammierschnittstellen (API) kommerziell zur Verfügung stellen und unter freien und quelloffenen Lizenzen vertreiben, aber auch zunehmend über KI-Arbeitskräfteplattformen, den Weiterverkauf von trainierten Parametern, DIY-Kits zum Bau von Modellen oder über das Angebot eines kostenpflichtigen Zugangs zu einer Modellservicearchitektur zur Entwicklung und zum Trainieren von Modellen. Angesichts dieser Komplexität der KI-Wertschöpfungskette sollten alle einschlägigen Dritten, insbesondere diejenigen, die an der Entwicklung, am Verkauf und an der kommerziellen Bereitstellung von Software-Tools, Komponenten, vortrainierten Modellen oder in das KI-System integrierten Daten beteiligt sind, oder Netzdienstbetreiber, ohne ihre eigenen Rechte an geistigem Eigentum oder Geschäftsgeheimnisse zu gefährden, die erforderlichen Informationen, Schulungen oder Fachkenntnisse zur Verfügung stellen und gegebenenfalls mit Anbietern, denen die Kontrolle über alle für die Einhaltung der Vorschriften relevanten Aspekte des KI-Systems, das unter diese Verordnung fällt, ermöglicht werden soll, zusammenarbeiten. Um eine kosteneffiziente Steuerung der KI-Wertschöpfungskette zu ermöglichen, muss der Grad der Kontrolle von jedem Dritten, der dem Anbieter ein Tool, eine Dienstleistung, eine Komponente oder ein Verfahren liefert, das später vom Anbieter in das KI-System integriert wird, ausdrücklich offengelegt werden.

Änderungsantrag  95

 

Vorschlag für eine Verordnung

Erwägung 60 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(60a) Befindet sich eine Partei in einer stärkeren Verhandlungsposition, so besteht die Gefahr, dass diese Partei diese Position zum Nachteil der anderen Vertragspartei ausnutzt, wenn sie über die Lieferung von Werkzeugen, Dienstleistungen, Komponenten oder Verfahren, die in einem Hochrisiko-KI-System verwendet oder integriert werden, oder über die Abhilfemaßnahmen im Falle der Verletzung oder der Beendigung damit verbundener Verpflichtungen verhandelt. Solche vertraglichen Ungleichgewichte schaden insbesondere Kleinstunternehmen sowie kleinen und mittleren Unternehmen sowie Start-ups, es sei denn, sie befinden sich im Besitz eines Unternehmens oder werden von einem Unternehmen unter Vertrag genommen, das den Unterauftragnehmer angemessen entschädigen kann, da sie nicht in der Lage sind, die Bedingungen der vertraglichen Vereinbarung auszuhandeln, und unter Umständen keine andere Wahl haben, als Vertragsbedingungen ohne Verhandlungsspielraum zu akzeptieren. Daher sollten missbräuchliche Vertragsklauseln, die die Lieferung von Werkzeugen, Dienstleistungen, Bauteilen oder Verfahren, die in einem Hochrisiko-KI-System verwendet oder integriert werden, oder die Abhilfemaßnahmen bei Verletzung oder Beendigung damit verbundener Verpflichtungen regeln, für solche Kleinstunternehmen, kleinen oder mittleren Unternehmen und Start-ups nicht verbindlich sein, wenn sie ihnen einseitig auferlegt wurden.

Änderungsantrag  96

 

Vorschlag für eine Verordnung

Erwägung 60 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(60b) Bei den Vorschriften über Vertragsbedingungen sollte der Grundsatz der Vertragsfreiheit als wesentliches Konzept in den Geschäftsbeziehungen zwischen Unternehmen berücksichtigt werden. Daher sollten nicht alle Vertragsklauseln einer Missbräuchlichkeitsprüfung unterzogen werden, sondern nur solche Klauseln, die einseitig Kleinst-, kleinen und mittleren Unternehmen und Start-ups auferlegt werden. Dies betrifft Situationen ohne Verhandlungsspielraum, in denen eine Partei eine bestimmte Vertragsklausel einbringt und das Kleinstunternehmen bzw. das kleine oder mittlere Unternehmen und das Start-up den Inhalt dieser Klausel trotz eines Verhandlungsversuchs nicht beeinflussen kann. Eine Vertragsklausel, die lediglich von einer Partei eingebracht und von dem Kleinstunternehmen bzw. dem kleinen oder mittleren Unternehmen oder einem Start-up akzeptiert wird, oder eine Klausel, die zwischen den Vertragsparteien ausgehandelt und anschließend in geänderter Weise vereinbart wird, sollte nicht als einseitig auferlegt gelten.

Änderungsantrag  97

 

Vorschlag für eine Verordnung

Erwägung 60 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(60c) Darüber hinaus sollten die Vorschriften über missbräuchliche Vertragsklauseln nur für diejenigen Vertragsbestandteile gelten, die sich auf die Lieferung von Werkzeugen, Dienstleistungen, Komponenten oder Verfahren beziehen, die in einem Hochrisiko-KI-System verwendet werden oder darin integriert sind, oder auf die Abhilfemaßnahmen bei Verletzung oder Beendigung der damit verbundenen Verpflichtungen. Andere Teile desselben Vertrags, die nicht mit diesen Bestandteilen zusammenhängen, sollten nicht der in dieser Verordnung festgelegten Missbräuchlichkeitsprüfung unterliegen.

Änderungsantrag  98

 

Vorschlag für eine Verordnung

Erwägung 60 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(60d) Kriterien für die Ermittlung missbräuchlicher Vertragsklauseln sollten nur auf überzogene Vertragsbedingungen angewandt werden, bei denen eine stärkere Verhandlungsposition missbraucht wird. Die überwiegende Mehrheit der Vertragsklauseln, die in wirtschaftlicher Hinsicht für eine Partei günstiger sind als für die andere, einschließlich derjenigen, die in Verträgen zwischen Unternehmen üblich sind, sind ein normaler Ausdruck des Grundsatzes der Vertragsfreiheit und gelten weiterhin. Ist eine Vertragsbedingung nicht in der Liste der Klauseln aufgeführt, die stets als missbräuchlich gelten, findet die allgemeine Missbräuchlichkeitsbestimmung Anwendung. In diesem Zusammenhang sollten die als missbräuchlich aufgeführten Klauseln als Maßstab für die Auslegung der allgemeinen Missbräuchlichkeitsbestimmung dienen.

Änderungsantrag  99

 

Vorschlag für eine Verordnung

Erwägung 60 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(60e) Basismodelle sind eine neuere Entwicklung, bei der KI-Modelle auf der Grundlage von Algorithmen entwickelt werden, die im Hinblick auf Allgemeinheit und Vielseitigkeit der Ergebnisse optimiert wurden. Diese Modelle werden häufig auf der Grundlage eines breiten Spektrums von Datenquellen und großer Datenmengen trainiert, um eine Fülle nachgelagerter Aufgaben zu erfüllen, darunter auch solche, für die sie nicht speziell entwickelt und trainiert wurden. Das Basismodell kann unimodal oder multimodal sein und durch verschiedene Methoden wie überwachtes Lernen oder bestärkendes Lernen trainiert werden. KI-Systeme mit spezifischer Zweckbestimmung oder KI-Systeme mit allgemeinem Verwendungszweck können eine Implementierung eines Basismodells sein, was bedeutet, dass jedes Basismodell in unzähligen nachgelagerten KI-Systemen oder KI-Systemen mit allgemeinem Verwendungszweck wiederverwendet werden kann. Diese Modelle sind für viele nachgelagerte Anwendungen und Systeme von wachsender Bedeutung.

Änderungsantrag  100

 

Vorschlag für eine Verordnung

Erwägung 60 f (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(60f) Im Falle von Basismodellen, die als Dienstleistung, z. B. über den API-Zugang, bereitgestellt werden, sollte sich die Zusammenarbeit mit nachgeschalteten Anbietern über den gesamten Zeitraum erstrecken, in dem dieser Dienst bereitgestellt und unterstützt wird, um eine angemessene Risikominderung zu ermöglichen, es sei denn, der Anbieter des Basismodells überträgt das Trainingsmodell sowie umfassende und angemessene Informationen über die Datensätze und den Entwicklungsprozess des Systems oder schränkt den Dienst, z. B. den API-Zugang, so ein, dass der nachgeschaltete Anbieter in der Lage ist, dieser Verordnung ohne weitere Unterstützung durch den ursprünglichen Anbieter des Basismodells vollständig zu entsprechen.

Änderungsantrag  101

 

Vorschlag für eine Verordnung

Erwägung 60 g (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(60g) Angesichts der Art und Komplexität der Wertschöpfungskette für KI-Systeme ist es von entscheidender Bedeutung, die Rolle der Akteure zu klären, die zur Entwicklung von KI-Systemen beitragen. Es besteht erhebliche Unsicherheit darüber, wie sich Basismodelle entwickeln werden, sowohl in Bezug auf die Typologie der Modelle als auch in Bezug auf die Selbstverwaltung. Daher muss die rechtliche Situation der Anbieter von Basismodellen unbedingt geklärt werden. Angesichts ihrer Komplexität und unerwarteten Auswirkungen, der mangelnden Kontrolle des nachgelagerten KI-Anbieters über die Entwicklung des Basismodells und des sich daraus ergebenden Machtungleichgewichts und um eine gerechte Aufteilung der Verantwortung entlang der KI-Wertschöpfungskette zu gewährleisten, sollten solche Modelle im Rahmen dieser Verordnung angemessenen und spezifischeren Anforderungen und Verpflichtungen unterliegen. Insbesondere sollten Basismodelle mögliche Risiken und Schäden durch geeignete Gestaltung, Erprobung und Analyse bewerten und mindern, Maßnahmen zur Datenverwaltung, einschließlich der Bewertung von Verzerrungen, umsetzen und technische Gestaltungsanforderungen erfüllen, um ein angemessenes Niveau an Leistung, Vorhersagbarkeit, Interpretierbarkeit, Korrigierbarkeit, Sicherheit und Cybersicherheit zu gewährleisten, und sie sollten Umweltstandards einhalten. Diese Verpflichtungen sollten durch Normen ergänzt werden. Außerdem sollten für Basismodelle Informationspflichten gelten und alle erforderlichen technischen Unterlagen für potenzielle nachgeschaltete Anbieter erstellt werden müssen, damit diese ihren Verpflichtungen aus dieser Verordnung nachkommen können. Generative Basismodelle sollten Transparenz über die Tatsache sicherstellen, dass die Inhalte von einem KI-System und nicht von Menschen erzeugt werden. Diese spezifischen Anforderungen und Verpflichtungen laufen nicht darauf hinaus, Basismodelle als Hochrisiko-KI-Systeme zu betrachten, sondern sollen sicherstellen, dass die Ziele dieser Verordnung, nämlich ein hohes Maß an Schutz der Grundrechte, Gesundheit und Sicherheit, der Umwelt, der Demokratie und der Rechtsstaatlichkeit, erreicht werden. Vortrainierte Modelle, die für eine enger gefasste, weniger allgemeine und begrenztere Reihe von Anwendungen entwickelt wurden und nicht an ein breites Spektrum von Aufgaben angepasst werden können, wie z. B. einfache Mehrzweck-KI-Systeme, sollten für die Zwecke dieser Verordnung nicht als Basismodelle betrachtet werden, da sie besser interpretierbar sind und ihr Verhalten weniger unvorhersehbar ist.

Änderungsantrag  102

 

Vorschlag für eine Verordnung

Erwägung 60 h (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(60h) Angesichts der Art der Basismodelle fehlt es an Fachwissen im Bereich der Konformitätsbewertung, und die Methoden zur Prüfung durch Dritte befinden sich noch in der Entwicklung. Die Branche selbst entwickelt daher neue Methoden zur Bewertung von Basismodellen, die zum Teil das Ziel der Prüfung erfüllen (z. B. Modellevaluierung, Red-Teaming oder Verifizierungs- und Validierungstechniken des maschinellen Lernens). Diese internen Bewertungen für Basismodelle sollten breit anwendbar sein (z. B. unabhängig von Vertriebskanälen, Modalität und Entwicklungsmethoden), um die für solche Modelle spezifischen Risiken unter Berücksichtigung der modernsten Praktiken der Branche anzugehen, und sich auf die Entwicklung eines ausreichenden technischen Verständnisses und einer ausreichenden Kontrolle über das Modell, das Management vernünftigerweise vorhersehbarer Risiken und eine umfassende Analyse und Prüfung des Modells durch geeignete Maßnahmen, z. B. durch die Einbeziehung unabhängiger Gutachter, konzentrieren. Da Basismodelle eine neue und schnell voranschreitende Entwicklung im Bereich der künstlichen Intelligenz sind, ist es angebracht, dass die Kommission und das Amt für künstliche Intelligenz den Rechts- und Verwaltungsrahmen für solche Modelle und insbesondere für generative KI-Systeme, die auf solchen Modellen beruhen, überwachen und regelmäßig bewerten, da diese erhebliche Fragen im Zusammenhang mit der Erzeugung von Inhalten, die gegen das Unionsrecht und die Vorschriften zum Urheberrecht verstoßen, und mit möglichem Missbrauch aufwerfen. Es sollte klargestellt werden, dass diese Verordnung das Unionsrecht zum Urheberrecht und zu verwandten Schutzrechten, einschließlich der Richtlinien 2001/29/EG, 2004/48/EG und (EU) 2019/790 des Europäischen Parlaments und des Rates, unberührt lassen sollte.

Änderungsantrag  103

 

Vorschlag für eine Verordnung

Erwägung 61

 

Vorschlag der Kommission

Geänderter Text

(61) Die Normung sollte eine Schlüsselrolle dabei spielen, den Anbietern technische Lösungen zur Verfügung zu stellen, um die Einhaltung dieser Verordnung zu gewährleisten. Die Einhaltung harmonisierter Normen gemäß der Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates54 sollte den Anbietern den Nachweis der Konformität mit den Anforderungen dieser Verordnung ermöglichen. Die Kommission könnte jedoch gemeinsame technische Spezifikationen in Bereichen annehmen, in denen es keine harmonisierten Normen gibt oder diese unzureichend sind.

(61) Die Normung sollte eine Schlüsselrolle dabei spielen, den Anbietern technische Lösungen zur Verfügung zu stellen, um die Einhaltung dieser Verordnung zu gewährleisten. Die Einhaltung harmonisierter Normen gemäß der Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates54 sollte den Anbietern den Nachweis der Konformität mit den Anforderungen dieser Verordnung ermöglichen. Um die Wirksamkeit von Normen als politisches Instrument für die Union sicherzustellen und angesichts der Bedeutung von Normen für die Sicherstellung der Konformität mit den Anforderungen dieser Verordnung und für die Wettbewerbsfähigkeit von Unternehmen, ist es notwendig, für eine ausgewogene Interessenvertretung zu sorgen, indem alle relevanten Interessengruppen in die Entwicklung von Normen einbezogen werden. Der Normungsprozess sollte in Bezug auf die an den Normungstätigkeiten beteiligten juristischen und natürlichen Personen transparent sein.

__________________

__________________

54 Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates vom 25. Oktober 2012 zur europäischen Normung, zur Änderung der Richtlinien 89/686/EWG und 93/15/EWG des Rates sowie der Richtlinien 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG und 2009/105/EG des Europäischen Parlaments und des Rates und zur Aufhebung des Beschlusses 87/95/EWG des Rates und des Beschlusses Nr. 1673/2006/EG des Europäischen Parlaments und des Rates (ABl. L 316 vom 14.11.2012, S. 12).

54 Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates vom 25. Oktober 2012 zur europäischen Normung, zur Änderung der Richtlinien 89/686/EWG und 93/15/EWG des Rates sowie der Richtlinien 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG und 2009/105/EG des Europäischen Parlaments und des Rates und zur Aufhebung des Beschlusses 87/95/EWG des Rates und des Beschlusses Nr. 1673/2006/EG des Europäischen Parlaments und des Rates (ABl. L 316 vom 14.11.2012, S. 12).

Änderungsantrag  104

 

Vorschlag für eine Verordnung

Erwägung 61 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(61a) Um die Einhaltung der Vorschriften zu erleichtern, sollten die ersten Normungsaufträge von der Kommission spätestens zwei Monate nach Inkrafttreten dieser Verordnung erteilt werden. Dies sollte die Rechtssicherheit verbessern und dadurch Investitionen und Innovationen im Bereich der KI sowie die Wettbewerbsfähigkeit und das Wachstum des Unionsmarktes fördern und gleichzeitig die Multi-Stakeholder-Governance voranbringen, bei der alle relevanten europäischen Interessenträger wie das Amt für KI, die europäischen Normungsorganisationen und die im Rahmen des einschlägigen sektoralen Unionsrechts eingerichteten Gremien oder Sachverständigengruppen sowie die Industrie, KMU, Start-ups, die Zivilgesellschaft, Forscher und Sozialpartner vertreten sind, und sollte letztlich die globale Zusammenarbeit bei der Normung im Bereich der KI in einer Weise erleichtern, die mit den Werten der Union vereinbar ist. Bei der Ausarbeitung des Normungsauftrags sollte die Kommission das Amt für KI und das KI-Beratungsforum konsultieren, um einschlägiges Fachwissen einzuholen.

Änderungsantrag  105

 

Vorschlag für eine Verordnung

Erwägung 61 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(61b) Wenn KI-Systeme am Arbeitsplatz zum Einsatz kommen sollen, dürfen die harmonisierten Normen nur technische Spezifikationen und Verfahren betreffen.

Änderungsantrag  106

 

Vorschlag für eine Verordnung

Erwägung 61 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(61c) Die Kommission sollte in der Lage sein, unter bestimmten Bedingungen gemeinsame Spezifikationen anzunehmen, wenn es keine einschlägige harmonisierte Norm gibt oder um spezifische Grundrechtsbelange zu berücksichtigen. Während des gesamten Entwurfsprozesses sollte die Kommission regelmäßig das Amt für KI und sein Beratungsforum, die europäischen Normungsorganisationen und die im Rahmen des einschlägigen sektoralen Unionsrechts eingerichteten Gremien oder Sachverständigengruppen sowie die einschlägigen Interessenträger wie Industrie, KMU, Start-ups, Zivilgesellschaft, Forscher und Sozialpartner konsultieren.

Änderungsantrag  107

 

Vorschlag für eine Verordnung

Erwägung 61 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(61d) Bei der Annahme gemeinsamer Spezifikationen sollte die Kommission eine regulatorische Abstimmung der KI mit gleichgesinnten globalen Partnern anstreben. Dies ist der Schlüssel zur Förderung von Innovation und grenzüberschreitenden Partnerschaften im Bereich der KI, da die Koordinierung mit gleichgesinnten Partnern in internationalen Normungsgremien von großer Bedeutung ist.

Änderungsantrag  108

 

Vorschlag für eine Verordnung

Erwägung 62

 

Vorschlag der Kommission

Geänderter Text

(62) Um ein hohes Maß an Vertrauenswürdigkeit von Hochrisiko-KI-Systemen zu gewährleisten, sollten diese Systeme einer Konformitätsbewertung unterzogen werden, bevor sie in Verkehr gebracht oder in Betrieb genommen werden.

(62) Um ein hohes Maß an Vertrauenswürdigkeit von Hochrisiko-KI-Systemen zu gewährleisten, sollten diese Systeme einer Konformitätsbewertung unterzogen werden, bevor sie in Verkehr gebracht oder in Betrieb genommen werden. Um das Vertrauen in die Wertschöpfungskette zu stärken und den Unternehmen Gewissheit über die Leistungsfähigkeit ihrer Systeme zu geben, sollten Dritte, die KI-Komponenten anbieten, die Möglichkeit haben, freiwillig eine Konformitätsbewertung durch Dritte zu beantragen.

Änderungsantrag  109

 

Vorschlag für eine Verordnung

Erwägung 64

 

Vorschlag der Kommission

Geänderter Text

(64) Angesichts der umfassenderen Erfahrung professioneller dem Inverkehrbringen vorgeschalteter Zertifizierer im Bereich der Produktsicherheit und der unterschiedlichen Art der damit verbundenen Risiken empfiehlt es sich, zumindest während der anfänglichen Anwendung dieser Verordnung für Hochrisiko-KI-Systeme, die nicht mit Produkten in Verbindung stehen, den Anwendungsbereich der Konformitätsbewertung durch Dritte einzuschränken. Daher sollte die Konformitätsbewertung solcher Systeme in der Regel vom Anbieter in eigener Verantwortung durchgeführt werden, mit Ausnahme von KI-Systemen, die zur biometrischen Fernidentifizierung von Personen verwendet werden sollen, bei denen die Beteiligung einer notifizierten Stelle an der Konformitätsbewertung vorgesehen werden sollte, soweit diese Systeme nicht ganz verboten sind.

(64) Angesichts der Komplexität von Hochrisiko-KI-Systemen und der damit verbundenen Risiken ist es unerlässlich, eine angemessenere Kapazität für die Anwendung der Konformitätsbewertung durch Dritte für Hochrisiko-KI-Systeme zu entwickeln. In Anbetracht der derzeitigen Erfahrung professioneller dem Inverkehrbringen vorgeschalteter Zertifizierer im Bereich der Produktsicherheit und der unterschiedlichen Art der damit verbundenen Risiken empfiehlt es sich jedoch, zumindest während der anfänglichen Anwendung dieser Verordnung für Hochrisiko-KI-Systeme, die nicht mit Produkten in Verbindung stehen, den Anwendungsbereich der Konformitätsbewertung durch Dritte einzuschränken. Daher sollte die Konformitätsbewertung solcher Systeme in der Regel vom Anbieter in eigener Verantwortung durchgeführt werden, mit Ausnahme von KI-Systemen, die zur biometrischen Fernidentifizierung von Personen verwendet werden sollen, oder von KI-Systemen, die dazu bestimmt sind, auf der Grundlage biometrischer oder biometriegestützter Daten Rückschlüsse auf persönliche Merkmale natürlicher Personen zu ziehen, einschließlich Systemen zur Erkennung von Emotionen, bei denen die Beteiligung einer notifizierten Stelle an der Konformitätsbewertung vorgesehen werden sollte, soweit diese Systeme nicht ganz verboten sind.

Änderungsantrag  110

 

Vorschlag für eine Verordnung

Erwägung 65

 

Vorschlag der Kommission

Geänderter Text

(65) Damit KI-Systeme, die zur biometrischen Fernidentifizierung von Personen verwendet werden sollen, einer Konformitätsbewertung durch Dritte unterzogen werden können, sollten die notifizierten Stellen gemäß dieser Verordnung von den zuständigen nationalen Behörden benannt werden, sofern sie eine Reihe von Anforderungen erfüllen, insbesondere in Bezug auf Unabhängigkeit, Kompetenz und Nichtvorliegen von Interessenkonflikten.

(65) Damit KI-Systeme, falls vorgeschrieben, Konformitätsbewertungen durch Dritte unterzogen werden können, sollten die notifizierten Stellen gemäß dieser Verordnung von den zuständigen nationalen Behörden benannt werden, sofern sie eine Reihe von Anforderungen erfüllen, insbesondere in Bezug auf Unabhängigkeit, Kompetenz, Nichtvorliegen von Interessenkonflikten und Mindestanforderungen an die Cybersicherheit. Die Mitgliedstaaten sollten die Benennung einer ausreichenden Zahl von Konformitätsbewertungsstellen fördern, um eine zeitnahe Zertifizierung zu ermöglichen. Die Verfahren zur Bewertung, Benennung, Notifizierung und Überwachung von Konformitätsbewertungsstellen sollten in den Mitgliedstaaten so einheitlich wie möglich angewandt werden, um administrative Grenzhindernisse zu beseitigen und dafür zu sorgen, dass das Potenzial des Binnenmarktes ausgeschöpft wird.

Änderungsantrag  111

 

Vorschlag für eine Verordnung

Erwägung 65 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(65a) Im Einklang mit den Verpflichtungen der EU im Rahmen des Übereinkommens der Welthandelsorganisation über technische Handelshemmnisse ist es angemessen, die Akzeptanz von Prüfergebnissen zu erhöhen, die von den zuständigen Konformitätsbewertungsstellen unabhängig von dem Gebiet, in dem diese niedergelassen sind, erstellt werden, wenn dies für den Nachweis der Konformität mit den geltenden Anforderungen der Verordnung erforderlich ist. Die Kommission sollte aktiv mögliche internationale Instrumente zu diesem Zweck prüfen und insbesondere den Abschluss von Abkommen über die gegenseitige Anerkennung mit Ländern anstreben, die sich auf einem vergleichbaren technischen Entwicklungsstand befinden und kompatible Konzepte für die KI und die Konformitätsbewertung haben.

Änderungsantrag  112

 

Vorschlag für eine Verordnung

Erwägung 66

 

Vorschlag der Kommission

Geänderter Text

(66) Im Einklang mit dem allgemein anerkannten Begriff der wesentlichen Änderung von Produkten, für die Harmonisierungsrechtsvorschriften der Union gelten, ist es angebracht, dass ein KI-System einer neuen Konformitätsbewertung unterzogen wird, wenn eine Änderung eintritt, die die Einhaltung dieser Verordnung durch das System beeinträchtigen könnte, oder wenn sich die Zweckbestimmung des Systems ändert. Darüber hinaus müssen in Bezug auf KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen (d. h. sie passen automatisch an, wie die Funktionen ausgeführt werden), Vorschriften festgelegt werden, nach denen Änderungen des Algorithmus und seiner Leistung, die vom Anbieter vorab festgelegt und zum Zeitpunkt der Konformitätsbewertung bewertet wurden, keine wesentliche Änderung darstellen sollten.

(66) Im Einklang mit dem allgemein anerkannten Begriff der wesentlichen Änderung von Produkten, für die Harmonisierungsrechtsvorschriften der Union gelten, ist es angebracht, dass ein Hochrisiko-KI-System einer neuen Konformitätsbewertung unterzogen wird, wenn eine ungeplante Änderung eintritt, die über kontrollierte oder vom Anbieter vorher festgelegte Änderungen, einschließlich kontinuierlicher Lernprozesse, hinausgeht und ein neues inakzeptables Risiko schaffen und die Einhaltung dieser Verordnung durch das Hochrisiko-KI-System erheblich beeinträchtigen könnte, oder wenn sich die Zweckbestimmung des Systems ändert. Darüber hinaus müssen in Bezug auf KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen (d. h. sie passen automatisch an, wie die Funktionen ausgeführt werden), Vorschriften festgelegt werden, nach denen Änderungen des Algorithmus und seiner Leistung, die vom Anbieter vorab festgelegt und zum Zeitpunkt der Konformitätsbewertung bewertet wurden, keine wesentliche Änderung darstellen sollten. Aus allgemeinen Sicherheitsgründen und zum Schutz vor aufkommenden Bedrohungen infolge von Systemmanipulationen sollte das Gleiche für Aktualisierungen des KI-Systems gelten, sofern sie keine wesentliche Änderung darstellen.

Änderungsantrag  113

 

Vorschlag für eine Verordnung

Erwägung 67

 

Vorschlag der Kommission

Geänderter Text

(67) Hochrisiko-KI-Systeme sollten grundsätzlich mit der CE-Kennzeichnung versehen sein, aus der ihre Konformität mit dieser Verordnung hervorgeht, sodass sie frei im Binnenmarkt verkehren können. Die Mitgliedstaaten sollten keine ungerechtfertigten Hindernisse für das Inverkehrbringen oder die Inbetriebnahme von Hochrisiko-KI-Systemen schaffen, die die in dieser Verordnung festgelegten Anforderungen erfüllen und mit der CE-Kennzeichnung versehen sind.

(67) Hochrisiko-KI-Systeme sollten grundsätzlich mit der CE-Kennzeichnung versehen sein, aus der ihre Konformität mit dieser Verordnung hervorgeht, sodass sie frei im Binnenmarkt verkehren können. Bei physischen Hochrisiko-KI-Systemen sollte eine physische CE-Kennzeichnung angebracht werden, die durch eine digitale CE-Kennzeichnung ergänzt werden kann. Bei rein digitalen Hochrisiko-KI-Systemen sollte eine digitale CE-Kennzeichnung verwendet werden. Die Mitgliedstaaten sollten keine ungerechtfertigten Hindernisse für das Inverkehrbringen oder die Inbetriebnahme von Hochrisiko-KI-Systemen schaffen, die die in dieser Verordnung festgelegten Anforderungen erfüllen und mit der CE-Kennzeichnung versehen sind.

Änderungsantrag  114

 

Vorschlag für eine Verordnung

Erwägung 68

 

Vorschlag der Kommission

Geänderter Text

(68) Unter bestimmten Bedingungen kann die rasche Verfügbarkeit innovativer Technik für die Gesundheit und Sicherheit von Menschen und für die Gesellschaft insgesamt von entscheidender Bedeutung sein. Es ist daher angebracht, dass die Mitgliedstaaten aus außergewöhnlichen Gründen der öffentlichen Sicherheit, des Schutzes des Lebens und der Gesundheit natürlicher Personen und des Schutzes des gewerblichen und kommerziellen Eigentums das Inverkehrbringen oder die Inbetriebnahme von KI-Systemen, die keiner Konformitätsbewertung unterzogen wurden, genehmigen könnten.

(68) Unter bestimmten Bedingungen kann die rasche Verfügbarkeit innovativer Technik für die Gesundheit und Sicherheit von Menschen, die Umwelt und den Klimawandel und für die Gesellschaft insgesamt von entscheidender Bedeutung sein. Es ist daher angebracht, dass die Mitgliedstaaten aus außergewöhnlichen Gründen des Schutzes des Lebens und der Gesundheit natürlicher Personen, des Umweltschutzes und des Schutzes der kritischen Infrastruktur das Inverkehrbringen oder die Inbetriebnahme von KI-Systemen, die keiner Konformitätsbewertung unterzogen wurden, genehmigen könnten.

Änderungsantrag  115

 

Vorschlag für eine Verordnung

Erwägung 69

 

Vorschlag der Kommission

Geänderter Text

(69) Um die Arbeit der Kommission und der Mitgliedstaaten im Bereich der künstlichen Intelligenz zu erleichtern und die Transparenz gegenüber der Öffentlichkeit zu erhöhen, sollten Anbieter von Hochrisiko-KI-Systemen, die nicht mit Produkten in Verbindung stehen, die unter die einschlägigen Harmonisierungsrechtsvorschriften der Union fallen, dazu verpflichtet werden, ihr Hochrisiko-KI-System in einer von der Kommission einzurichtenden und zu verwaltenden EU-Datenbank zu registrieren. Die Kommission sollte im Einklang mit der Verordnung (EU) 2018/1725 des Europäischen Parlaments und des Rates55 als für die Datenbank verantwortliche Stelle gelten. Um die volle Funktionsfähigkeit der Datenbank zu gewährleisten, sollte das Verfahren für die Einrichtung der Datenbank auch die Ausarbeitung von funktionalen Spezifikationen durch die Kommission und einen unabhängigen Prüfbericht umfassen.

(69) Um die Arbeit der Kommission und der Mitgliedstaaten im Bereich der künstlichen Intelligenz zu erleichtern und die Transparenz gegenüber der Öffentlichkeit zu erhöhen, sollten Anbieter von Hochrisiko-KI-Systemen, die nicht mit Produkten in Verbindung stehen, die unter die einschlägigen Harmonisierungsrechtsvorschriften der Union fallen, dazu verpflichtet werden, ihr Hochrisiko-KI-System und ihre Basismodelle in einer von der Kommission einzurichtenden und zu verwaltenden EU-Datenbank zu registrieren. Diese Datenbank sollte frei und öffentlich zugänglich, leicht verständlich und maschinenlesbar sein. Die Datenbank sollte außerdem benutzerfreundlich und leicht navigierbar sein und zumindest Suchfunktionen enthalten, die es der Öffentlichkeit ermöglichen, die Datenbank nach bestimmten Hochrisikosystemen, Standorten, Risikokategorien gemäß Anhang IV und Schlüsselwörtern zu durchsuchen. Bereitsteller, die Behörden oder Organe, Einrichtungen, Ämter und Agenturen der Union sind, oder Bereitsteller, die in ihrem Namen handeln, sowie Bereitsteller, die Unternehmen sind, die gemäß der Verordnung (EU) 2022/1925 als Torwächter benannt wurden, sollten sich vor der ersten Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems sowie nach jeder wesentlichen Änderung ebenfalls in der EU-Datenbank registrieren. Andere Betreiber sollten berechtigt sein, dies freiwillig zu tun. Jede wesentliche Änderung von Hochrisiko-KI-Systemen muss ebenfalls in der EU-Datenbank registriert werden. Die Kommission sollte im Einklang mit der Verordnung (EU) 2018/1725 des Europäischen Parlaments und des Rates55 als für die Datenbank verantwortliche Stelle gelten. Um die volle Funktionsfähigkeit der Datenbank zu gewährleisten, sollte das Verfahren für die Einrichtung der Datenbank auch die Ausarbeitung von funktionalen Spezifikationen durch die Kommission und einen unabhängigen Prüfbericht umfassen. Die Kommission sollte bei der Wahrnehmung ihrer Aufgaben als Verantwortliche für die EU-Datenbank die Risiken im Zusammenhang mit Cybersicherheit und Gefährdungen berücksichtigen. Um für ein Höchstmaß an Verfügbarkeit und Nutzung der Datenbank durch die Öffentlichkeit zu sorgen, sollte die Datenbank, einschließlich der über sie zur Verfügung gestellten Informationen, den Anforderungen der Richtlinie (EU) 2019/882 entsprechen.

__________________

__________________

55 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), (ABl. L 119 vom 4.5.2016, S. 1).

55 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), (ABl. L 119 vom 4.5.2016, S. 1).

Änderungsantrag  116

 

Vorschlag für eine Verordnung

Erwägung 71

 

Vorschlag der Kommission

Geänderter Text

(71) Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die neuartige Formen der Regulierungsaufsicht und einen sicheren Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen innovationsfreundlichen, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die zuständigen nationalen Behörden eines oder mehrerer Mitgliedstaaten angehalten werden, Reallabore für künstliche Intelligenz einzurichten, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern.

(71) Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die eine Regulierungsaufsicht und einen sicheren und überwachten Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen Innovationen fördernden, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die Mitgliedstaaten mindestens ein Reallabor für künstliche Intelligenz einrichten, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern. Es ist in der Tat wünschenswert, dass die Einrichtung von Reallaboren, deren Einrichtung derzeit im Ermessen der Mitgliedstaaten liegt, in einem nächsten Schritt anhand festgelegter Kriterien verbindlich gemacht wird. Dieses obligatorische Reallabor könnte auch gemeinsam mit einem oder mehreren anderen Mitgliedstaaten eingerichtet werden, sofern dieses Reallabor die jeweilige nationale Ebene der beteiligten Mitgliedstaaten abdecken würde. Zusätzliche Reallabore können außerdem auf verschiedenen Ebenen, auch zwischen Mitgliedstaaten, eingerichtet werden, um die grenzüberschreitende Zusammenarbeit und Synergien zu erleichtern. Mit Ausnahme des obligatorischen Reallabors auf nationaler Ebene sollten die Mitgliedstaaten ferner die Möglichkeit haben, virtuelle oder hybride Reallabore einzurichten. Alle Reallabore sollten sowohl physische als auch virtuelle Produkte abdecken können. Die einrichtenden Behörden sollten auch dafür Sorge tragen, dass die Reallabore über angemessene finanzielle und personelle Ressourcen für ihren Betrieb verfügen.

Änderungsantrag  117

 

Vorschlag für eine Verordnung

Erwägung 72

 

Vorschlag der Kommission

Geänderter Text

(72) Die Ziele der Reallabore sollten darin bestehen, Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Erprobungsumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderen einschlägigen Rechtsvorschriften der Union und der Mitgliedstaaten in Einklang stehen. Darüber hinaus sollen sie die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und der Auswirkungen der KI-Nutzung verbessern und den Marktzugang beschleunigen, unter anderem indem Hindernisse für kleine und mittlere Unternehmen (KMU) und Start-up-Unternehmen abgebaut werden. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die am Reallabor Beteiligten sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der am Reallabor Beteiligten sollte berücksichtigt werden, wenn die zuständigen Behörden entscheiden, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.

(72) Die Ziele der Reallabore sollten für die einrichtenden Behörden darin bestehen, ihr Verständnis der technischen Entwicklungen zu verbessern, die Überwachungsmethoden zu verbessern und den Entwicklern und Anbietern von KI-Systemen Leitlinien an die Hand zu geben, um die Einhaltung der Vorschriften dieser Verordnung oder gegebenenfalls anderer geltender Rechtsvorschriften der Union und der Mitgliedstaaten sowie der Charta der Grundrechte zu erreichen, und für die potenziellen Anbieter darin bestehen, die Erprobung und Entwicklung innovativer Lösungen im Zusammenhang mit KI-Systemen in der dem Inverkehrbringen vorgelagerten Phase zu ermöglichen und zu erleichtern, um die Rechtssicherheit zu verbessern, mehr regulatorisches Lernen durch die einrichtenden Behörden in einem kontrollierten Umfeld zu ermöglichen, um bessere Leitlinien zu entwickeln und mögliche künftige Verbesserungen des Rechtsrahmens im Rahmen des ordentlichen Gesetzgebungsverfahrens zu ermitteln. Alle erheblichen Risiken, die bei der Entwicklung und Erprobung solcher KI-Systeme festgestellt werden, sollten die unverzügliche Risikominderung und, falls diese fehlschlägt, die Aussetzung des Entwicklungs- und Erprobungsprozesses nach sich ziehen, bis diese Risikominderung erfolgt ist. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die Mitgliedstaaten sollten dafür Sorge tragen, dass Reallabore in der gesamten Union weithin verfügbar sind, wobei die Teilnahme freiwillig bleiben sollte. Insbesondere muss sichergestellt werden, dass KMU und Start-up-Unternehmen einen einfachen Zugang zu diesen Reallaboren erhalten und aktiv in die Entwicklung und Erprobung innovativer KI-Systeme einbezogen werden und sich daran beteiligen, damit sie mit ihrem Know-how und ihrer Erfahrung einen Beitrag leisten können.

Änderungsantrag  118

 

Vorschlag für eine Verordnung

Erwägung 72 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(72a) Die vorliegende Verordnung sollte nur unter bestimmten Voraussetzungen im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die potenziellen Anbieter des Reallabors sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit, die Gesundheit, die Umwelt und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der potenziellen Anbieter des Reallabors sollte berücksichtigt werden, wenn die zuständigen Behörden über die vorübergehende oder dauerhafte Aussetzung ihrer Beteiligung am Reallabor entscheiden oder darüber, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.

Änderungsantrag  119

 

Vorschlag für eine Verordnung

Erwägung 72 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(72b) Um sicherzustellen, dass die künstliche Intelligenz für die Gesellschaft und die Umwelt von Nutzen ist, sollten die Mitgliedstaaten die Forschung und Entwicklung im Bereich von KI mit gesellschaftlichem und ökologischem Nutzen unterstützen und fördern, indem sie ausreichende Ressourcen bereitstellen, darunter staatliche Mittel und Unionsmittel, und Projekten, die von der Zivilgesellschaft getragen werden, vorrangigen Zugang zu Reallaboren gewähren. Diese Projekte sollten auf dem Grundsatz der interdisziplinären Zusammenarbeit zwischen KI-Entwicklern, Fachleuten in den Bereichen Gleichstellung und Nichtdiskriminierung, Barrierefreiheit und Verbraucher-, Umwelt- und digitale Rechte sowie Wissenschaftlern beruhen.

Änderungsantrag  120

 

Vorschlag für eine Verordnung

Erwägung 73

 

Vorschlag der Kommission

Geänderter Text

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch KI-Kompetenz, Sensibilisierungs- und Informationsmaßnahmen. Die Mitgliedstaaten nutzen entsprechende bestehende Kanäle und richten gegebenenfalls neue Kanäle für die Kommunikation mit KMU, Start-up-Unternehmen und anderen Innovatoren ein, um Orientierungshilfe zu bieten und Fragen zur Durchführung dieser Verordnung zu beantworten. Zu solchen bestehenden Kanälen könnten unter anderem die folgenden gehören: das Netzwerk von Computer-Notfallteams der Agentur der Europäischen Union für Cybersicherheit (ENISA), nationale Datenschutzbehörden, die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation sowie andere durch EU-Programme finanzierte relevante Instrumente und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden. Diese Kanäle arbeiten gegebenenfalls zusammen, um Synergien zu schaffen und eine Homogenität ihrer Leitlinien für Start-up-Unternehmen, KMU und Nutzer sicherzustellen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Die Kommission bewertet regelmäßig die Zertifizierungs- und Befolgungskosten für KMU und Start-up-Unternehmen, unter anderem durch transparente Konsultationen mit KMU, Start-up-Unternehmen und Nutzern, und arbeitet mit den Mitgliedstaaten zusammen, um diese Kosten zu senken. So können zum Beispiel Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird. Mittlere Unternehmen, die kürzlich die Kategorie von der kleinen auf die mittlere Größe im Sinne des Anhangs der Empfehlung 2003/361/EG (Artikel 16) gewechselt haben, sollten während eines von den Mitgliedstaaten als angemessen erachteten Zeitraums Zugang zu diesen Initiativen und Orientierungshilfen haben, da diesen neuen mittleren Unternehmen mitunter die erforderlichen rechtlichen Mittel und Schulungsmöglichkeiten fehlen, um für ein angemessenes Verständnis und eine ordnungsgemäße Einhaltung der Bestimmungen zu sorgen.

 

Änderungsantrag  121

 

Vorschlag für eine Verordnung

Erwägung 74

 

Vorschlag der Kommission

Geänderter Text

(74) Um die Risiken bei der Durchführung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern und notifizierten Stellen die Einhaltung ihrer Verpflichtungen aus dieser Verordnung zu erleichtern, sollten die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden, möglichst zur Durchführung dieser Verordnung beitragen. Sie können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen.

(74) Um die Risiken bei der Durchführung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern und notifizierten Stellen die Einhaltung ihrer Verpflichtungen aus dieser Verordnung zu erleichtern, sollten die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden, zur Durchführung dieser Verordnung beitragen. Sie können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen.

Änderungsantrag  122

 

Vorschlag für eine Verordnung

Erwägung 76

 

Vorschlag der Kommission

Geänderter Text

(76) Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschlägen oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz beraten und unterstützen.

(76) Um eine Fragmentierung zu vermeiden, für das optimale Funktionieren des Binnenmarkts zu sorgen, eine wirksame und harmonisierte Umsetzung dieser Verordnung sicherzustellen, ein hohes Maß an Vertrauenswürdigkeit und an Schutz für die Gesundheit und Sicherheit, die Grundrechte, die Umwelt, die Demokratie und die Rechtsstaatlichkeit in der gesamten Union in Bezug auf KI-Systeme zu erreichen, die nationalen Aufsichtsbehörden, die Organe, Einrichtungen, Ämter und Agenturen der Union in Angelegenheiten, die diese Verordnung betreffen, aktiv zu unterstützen und die Akzeptanz der künstlichen Intelligenz in der gesamten Union zu erhöhen, sollte ein Europäisches Amt für künstliche Intelligenz eingerichtet werden. Das Amt für künstliche Intelligenz sollte Rechtspersönlichkeit besitzen, in völliger Unabhängigkeit handeln, für eine Reihe von Beratungs- und Koordinierungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschläge oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, und es sollte mit angemessenen Finanzmitteln und Personal ausgestattet sein. Die Mitgliedstaaten sollten gemeinsam mit der Kommission, dem EDSB, der FRA und der ENISA über den Verwaltungsrat des Amts für KI die strategische Leitung und Kontrolle des Amts für KI übernehmen. Ein Verwaltungsratsmitglied sollte für die Leitung der Tätigkeiten des Sekretariats des Amts für KI und für die Vertretung des Amts für KI verantwortlich sein. Interessenträger sollten sich im Wege eines Beratungsforums, das eine vielfältige und ausgewogene Vertretung von Interessenträgern sicherstellen und das Amt für KI in Angelegenheiten, die diese Verordnung betreffen, beraten sollte, formell an der Arbeit des Amts für KI beteiligen. Sollte sich die Einrichtung des Amts für KI als unzureichend erweisen, um eine vollständig kohärente Anwendung dieser Verordnung auf Unionsebene sowie effiziente grenzüberschreitende Durchsetzungsmaßnahmen zu gewährleisten, sollte die Einrichtung einer Agentur für KI in Betracht gezogen werden.

Änderungsantrag  123

 

Vorschlag für eine Verordnung

Erwägung 77

 

Vorschlag der Kommission

Geänderter Text

(77) Den Mitgliedstaaten kommt bei der Anwendung und Durchsetzung dieser Verordnung eine Schlüsselrolle zu. Dazu sollte jeder Mitgliedstaat eine oder mehrere zuständige nationale Behörden benennen, die die Anwendung und Umsetzung dieser Verordnung beaufsichtigen. Um die Effizienz der Organisation aufseiten der Mitgliedstaaten zu steigern und eine offizielle Kontaktstelle gegenüber der Öffentlichkeit und anderen Ansprechpartnern auf Ebene der Mitgliedstaaten und der Union einzurichten, sollte in jedem Mitgliedstaat eine nationale Behörde als nationale Aufsichtsbehörde benannt werden.

(77) Jeder Mitgliedstaat sollte eine nationale Aufsichtsbehörde benennen, die die Anwendung und Umsetzung dieser Verordnung beaufsichtigt. Diese Behörde sollte zudem ihren Mitgliedstaat im Verwaltungsrat des Amts für KI vertreten, um die Effizienz der Organisation aufseiten der Mitgliedstaaten zu steigern und eine offizielle Kontaktstelle gegenüber der Öffentlichkeit und anderen Ansprechpartnern auf Ebene der Mitgliedstaaten und der Union einzurichten. Jede nationale Aufsichtsbehörde sollte bei der Erfüllung ihrer Aufgaben und Ausübung ihrer Befugnisse gemäß dieser Verordnung vollkommen unabhängig handeln.

Änderungsantrag  124

 

Vorschlag für eine Verordnung

Erwägung 77 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(77a) Die nationalen Aufsichtsbehörden sollten die Anwendung der Bestimmungen dieser Verordnung überwachen und zu ihrer einheitlichen Anwendung in der gesamten Union beitragen. Zu diesem Zweck sollten die nationalen Aufsichtsbehörden untereinander, mit den jeweils zuständigen nationalen Behörden, mit der Kommission und mit dem Amt für KI zusammenarbeiten.

Änderungsantrag  125

 

Vorschlag für eine Verordnung

Erwägung 77 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(77b) Das Mitglied oder die Bediensteten jeder nationalen Aufsichtsbehörde sollten gemäß dem Unionsrecht oder dem Recht der Mitgliedstaaten sowohl während ihrer Amts- beziehungsweise Dienstzeit als auch nach deren Beendigung verpflichtet sein, über alle vertraulichen Informationen, die ihnen bei der Wahrnehmung ihrer Aufgaben oder der Ausübung ihrer Befugnisse bekannt geworden sind, Verschwiegenheit zu wahren. Während dieser Amts- beziehungsweise Dienstzeit sollte diese Verschwiegenheitspflicht insbesondere für Geschäftsgeheimnisse und für die von natürlichen Personen gemeldeten Verstöße gegen diese Verordnung gelten.

Änderungsantrag  126

 

Vorschlag für eine Verordnung

Erwägung 78

 

Vorschlag der Kommission

Geänderter Text

(78) Damit Anbieter von Hochrisiko-KI-Systemen die Erfahrungen mit der Verwendung von Hochrisiko-KI-Systemen bei der Verbesserung ihrer Systeme und im Konzeptions- und Entwicklungsprozess berücksichtigen oder rechtzeitig etwaige Korrekturmaßnahmen ergreifen können, sollten alle Anbieter über ein System zur Beobachtung nach dem Inverkehrbringen verfügen. Dieses System ist auch wichtig, damit den möglichen Risiken, die von KI-Systemen ausgehen, die nach dem Inverkehrbringen oder der Inbetriebnahme dazulernen, wirksamer und zeitnah begegnet werden kann. In diesem Zusammenhang sollten die Anbieter auch verpflichtet sein, ein System einzurichten, um den zuständigen Behörden schwerwiegende Vorfälle oder Verstöße gegen nationales Recht und Unionsrecht zum Schutz der Grundrechte zu melden, die sich aus der Verwendung ihrer KI-Systeme ergeben.

(78) Damit Anbieter von Hochrisiko-KI-Systemen die Erfahrungen mit der Verwendung von Hochrisiko-KI-Systemen bei der Verbesserung ihrer Systeme und im Konzeptions- und Entwicklungsprozess berücksichtigen oder rechtzeitig etwaige Korrekturmaßnahmen ergreifen können, sollten alle Anbieter über ein System zur Beobachtung nach dem Inverkehrbringen verfügen. Dieses System ist auch wichtig, damit den möglichen Risiken, die von KI-Systemen ausgehen, die nach dem Inverkehrbringen oder der Inbetriebnahme dazulernen oder sich weiterentwickeln, wirksamer und zeitnah begegnet werden kann. In diesem Zusammenhang sollten die Anbieter auch verpflichtet sein, ein System einzurichten, um den zuständigen Behörden schwerwiegende Vorfälle oder Verstöße gegen nationales Recht und Unionsrecht, einschließlich Rechtsvorschriften zum Schutz der Grundrechte und Verbraucherrechte, zu melden, die sich aus der Verwendung ihrer KI-Systeme ergeben, und geeignete Korrekturmaßnahmen zu ergreifen. Die Betreiber sollten zudem den zuständigen Behörden schwerwiegende Vorfälle oder Verstöße gegen nationales Recht und Unionsrecht, die sich aus der Verwendung ihrer KI-Systeme ergeben, melden, wenn sie Kenntnis von solchen schwerwiegenden Vorfällen oder Verstößen erlangen.

Änderungsantrag  127

 

Vorschlag für eine Verordnung

Erwägung 79

 

Vorschlag der Kommission

Geänderter Text

(79) Zur Gewährleistung einer angemessenen und wirksamen Durchsetzung der Anforderungen und Verpflichtungen gemäß dieser Verordnung, bei der es sich eine Harmonisierungsrechtsvorschrift der Union handelt, sollte das mit der Verordnung (EU) 2019/1020 eingeführte System der Marktüberwachung und der Konformität von Produkten in vollem Umfang gelten. Sofern dies für die Erfüllung ihres Auftrags erforderlich ist, sollten auch nationale Behörden oder Stellen, die die Anwendung des Unionsrechts zum Schutz der Grundrechte überwachen, einschließlich Gleichstellungsstellen, Zugang zu der gesamten im Rahmen dieser Verordnung erstellten Dokumentation haben.

(79) Zur Gewährleistung einer angemessenen und wirksamen Durchsetzung der Anforderungen und Verpflichtungen gemäß dieser Verordnung, bei der es sich eine Harmonisierungsrechtsvorschrift der Union handelt, sollte das mit der Verordnung (EU) 2019/1020 eingeführte System der Marktüberwachung und der Konformität von Produkten in vollem Umfang gelten. Für die Zwecke dieser Verordnung sollten die nationalen Aufsichtsbehörden als Marktüberwachungsbehörden für unter diese Verordnung fallende KI-Systeme fungieren, mit Ausnahme von KI-Systemen, die unter Anhang II dieser Verordnung fallen. Bei KI-Systemen, die unter die in Anhang II aufgeführten Rechtsakte fallen, sollten die nach diesen Rechtsakten zuständigen Behörden weiterhin die federführende Behörde sein. Die nationalen Aufsichtsbehörden und die in den in Anhang II aufgeführten Rechtsakten genannten zuständigen Behörden sollten bei Bedarf zusammenarbeiten. Gegebenenfalls sollten die in den in Anhang II aufgeführten Rechtsakten genannten zuständigen Behörden kompetente Mitarbeiter an die nationale Aufsichtsbehörde entsenden, um sie bei der Wahrnehmung ihrer Aufgaben zu unterstützen. Für die Zwecke dieser Verordnung sollten die nationalen Aufsichtsbehörden die gleichen Befugnisse und Pflichten haben wie die Marktüberwachungsbehörden gemäß der Verordnung (EU) 2019/1020. Sofern dies für die Erfüllung ihres Auftrags erforderlich ist, sollten auch nationale Behörden oder Stellen, die die Anwendung des Unionsrechts zum Schutz der Grundrechte überwachen, einschließlich Gleichstellungsstellen, Zugang zu der gesamten im Rahmen dieser Verordnung erstellten Dokumentation haben. Nachdem alle anderen angemessenen Möglichkeiten zur Bewertung/Überprüfung der Konformität ausgeschöpft wurden, sollte der nationalen Aufsichtsbehörde auf begründeten Antrag Zugang zu den Trainings-, Validierungs- und Testdatensätzen, dem trainierten Modell und dem Trainingsmodell des Hochrisiko-KI-Systems, einschließlich seiner relevanten Modellparameter und seiner Ausführungs-/Prozessumgebung, gewährt werden. Bei einfacheren Softwaresystemen, die unter diese Verordnung fallen und nicht auf trainierten Modellen beruhen, und wenn alle anderen Möglichkeiten zur Überprüfung der Konformität ausgeschöpft wurden, kann die nationale Aufsichtsbehörde auf begründeten Antrag hin ausnahmsweise Zugang zum Quellcode erhalten. Wurde der nationalen Aufsichtsbehörde gemäß dieser Verordnung Zugang zu den Trainings-, Validierungs- und Testdatensätzen gewährt, so sollte dieser Zugang durch geeignete technische Mittel und Instrumente erfolgen, einschließlich des Zugangs vor Ort und in Ausnahmefällen des Fernzugangs. Die nationale Aufsichtsbehörde sollte alle erhaltenen Informationen, einschließlich des Quellcodes, der Software und gegebenenfalls der Daten, als vertrauliche Informationen behandeln und die einschlägigen Rechtsvorschriften der Union zum Schutz des geistigen Eigentums und der Geschäftsgeheimnisse beachten. Die nationale Aufsichtsbehörde sollte alle erhaltenen Informationen nach Abschluss der Untersuchung löschen.

Änderungsantrag  128

 

Vorschlag für eine Verordnung

Erwägung 80

 

Vorschlag der Kommission

Geänderter Text

(80) Die Rechtsvorschriften der Union über Finanzdienstleistungen enthalten Vorschriften und Anforderungen für die interne Unternehmensführung und das Risikomanagement, die für regulierte Finanzinstitute bei der Erbringung solcher Dienstleistungen gelten, auch wenn sie KI-Systeme verwenden. Um eine kohärente Anwendung und Durchsetzung der Verpflichtungen aus dieser Verordnung sowie der einschlägigen Vorschriften und Anforderungen der Rechtsvorschriften der Union für Finanzdienstleistungen zu gewährleisten, sollten die für die Beaufsichtigung und Durchsetzung der Rechtsvorschriften im Bereich der Finanzdienstleistungen zuständigen Behörden, gegebenenfalls einschließlich der Europäischen Zentralbank, auch als zuständige Behörden für die Überwachung der Durchführung dieser Verordnung, einschließlich der Marktüberwachungstätigkeiten, in Bezug auf von regulierten und beaufsichtigten Finanzinstituten bereitgestellte oder verwendete KI-Systeme benannt werden. Um die Kohärenz zwischen dieser Verordnung und den Vorschriften für Kreditinstitute, die unter die Richtlinie 2013/36/EU des Europäischen Parlaments und des Rates56 fallen, weiter zu verbessern, ist es ferner angezeigt, das Konformitätsbewertungsverfahren und einige verfahrenstechnische Anbieterpflichten in Bezug auf das Risikomanagement, die Beobachtung nach dem Inverkehrbringen und die Dokumentation in die bestehenden Verpflichtungen und Verfahren gemäß der Richtlinie 2013/36/EU aufzunehmen. Zur Vermeidung von Überschneidungen sollten auch begrenzte Ausnahmen in Bezug auf das Qualitätsmanagementsystem der Anbieter und die Beobachtungspflichten der Nutzer von Hochrisiko-KI-Systemen in Betracht gezogen werden, soweit diese Kreditinstitute betreffen, die unter die Richtlinie 2013/36/EU fallen.

(80) Das Unionsrecht zu Finanzdienstleistungen enthält Vorschriften und Anforderungen für die interne Unternehmensführung und das Risikomanagement, die für regulierte Finanzinstitute bei der Erbringung solcher Dienstleistungen gelten, auch wenn sie KI-Systeme verwenden. Um eine kohärente Anwendung und Durchsetzung der Verpflichtungen aus dieser Verordnung sowie der einschlägigen Vorschriften und Anforderungen des Unionsrechts zu Finanzdienstleistungen zu gewährleisten, sollten die für die Beaufsichtigung und Durchsetzung des Unionsrechts zu Finanzdienstleistungen zuständigen Behörden, gegebenenfalls einschließlich der Europäischen Zentralbank, auch als zuständige Behörden für die Überwachung der Durchführung dieser Verordnung, einschließlich der Marktüberwachungstätigkeiten, in Bezug auf von regulierten und beaufsichtigten Finanzinstituten bereitgestellte oder verwendete KI-Systeme benannt werden. Um die Kohärenz zwischen dieser Verordnung und den Vorschriften für Kreditinstitute, die unter die Richtlinie 2013/36/EU des Europäischen Parlaments und des Rates56 fallen, weiter zu verbessern, ist es ferner angezeigt, das Konformitätsbewertungsverfahren und einige verfahrenstechnische Anbieterpflichten in Bezug auf das Risikomanagement, die Beobachtung nach dem Inverkehrbringen und die Dokumentation in die bestehenden Verpflichtungen und Verfahren gemäß der Richtlinie 2013/36/EU aufzunehmen. Zur Vermeidung von Überschneidungen sollten auch begrenzte Ausnahmen in Bezug auf das Qualitätsmanagementsystem der Anbieter und die Beobachtungspflichten der Betreiber von Hochrisiko-KI-Systemen in Betracht gezogen werden, soweit diese Kreditinstitute betreffen, die unter die Richtlinie 2013/36/EU fallen.

__________________

__________________

56 Richtlinie 2013/36/EU des Europäischen Parlaments und des Rates vom 26. Juni 2013 über den Zugang zur Tätigkeit von Kreditinstituten und die Beaufsichtigung von Kreditinstituten und Wertpapierfirmen, zur Änderung der Richtlinie 2002/87/EG und zur Aufhebung der Richtlinien 2006/48/EG und 2006/49/EG (ABl. L 176 vom 27.6.2013, S. 338).

56 Richtlinie 2013/36/EU des Europäischen Parlaments und des Rates vom 26. Juni 2013 über den Zugang zur Tätigkeit von Kreditinstituten und die Beaufsichtigung von Kreditinstituten und Wertpapierfirmen, zur Änderung der Richtlinie 2002/87/EG und zur Aufhebung der Richtlinien 2006/48/EG und 2006/49/EG (ABl. L 176 vom 27.6.2013, S. 338).

Änderungsantrag  129

 

Vorschlag für eine Verordnung

Erwägung 80 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(80a) Angesichts der Ziele dieser Verordnung, nämlich einen gleichwertigen Schutz der Gesundheit, der Sicherheit und der Grundrechte natürlicher Personen sowie den Schutz der Rechtsstaatlichkeit und der Demokratie sicherzustellen, und unter Berücksichtigung, dass die Minderung der von KI-Systemen ausgehenden Risiken gegenüber diesen Rechten auf nationaler Ebene möglicherweise nicht ausreichend erreicht wird oder Gegenstand unterschiedlicher Auslegungen sein kann, was letztlich zu einem ungleichen Schutzniveau für natürliche Personen und zu einer Fragmentierung der Märkte führen könnte, sollten die nationalen Aufsichtsbehörden ermächtigt werden, gemeinsame Untersuchungen durchzuführen oder zur wirksamen Durchsetzung das in dieser Verordnung vorgesehene Schutzklauselverfahren der Union anzuwenden. Gemeinsame Untersuchungen sollten eingeleitet werden, wenn die nationalen Aufsichtsbehörden hinreichende Gründe zu der Annahme haben, dass es sich bei einem Verstoß gegen diese Verordnung um einen weitverbreiteten Verstoß oder einen weitverbreiteten Verstoß mit unionsweiter Dimension handelt, oder wenn das KI-System oder das Basismodell ein Risiko darstellt, das mindestens 45 Millionen Personen in mehr als einem Mitgliedstaat betrifft oder betreffen könnte.

Änderungsantrag  130

 

Vorschlag für eine Verordnung

Erwägung 82

 

Vorschlag der Kommission

Geänderter Text

(82) Es ist wichtig, dass KI-Systeme im Zusammenhang mit Produkten, die gemäß dieser Verordnung kein hohes Risiko bergen und daher nicht die in dieser Verordnung festgelegten Anforderungen erfüllen müssen, dennoch sicher sind, wenn sie in Verkehr gebracht oder in Betrieb genommen werden. Um zu diesem Ziel beizutragen, würde die Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates57 als Sicherheitsnetz dienen.

(82) Es ist wichtig, dass KI-Systeme im Zusammenhang mit Produkten, die gemäß dieser Verordnung kein hohes Risiko bergen und daher nicht die für Hochrisiko-KI-Systeme festgelegten Anforderungen erfüllen müssen, dennoch sicher sind, wenn sie in Verkehr gebracht oder in Betrieb genommen werden. Um zu diesem Ziel beizutragen, würde die Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates57 als Sicherheitsnetz dienen.

__________________

__________________

57 Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates vom 3. Dezember 2001 über die allgemeine Produktsicherheit (ABl. L 11 vom 15.1.2002, S. 4).

57 Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates vom 3. Dezember 2001 über die allgemeine Produktsicherheit (ABl. L 11 vom 15.1.2002, S. 4).

Änderungsantrag  131

 

Vorschlag für eine Verordnung

Erwägung 83

 

Vorschlag der Kommission

Geänderter Text

(83) Zur Gewährleistung einer vertrauensvollen und konstruktiven Zusammenarbeit der zuständigen Behörden auf Ebene der Union und der Mitgliedstaaten, sollten alle an der Anwendung dieser Verordnung beteiligten Parteien die Vertraulichkeit der im Rahmen der Durchführung ihrer Tätigkeiten erlangten Informationen und Daten wahren.

(83) Zur Gewährleistung einer vertrauensvollen und konstruktiven Zusammenarbeit der zuständigen Behörden auf Ebene der Union und der Mitgliedstaaten, sollten alle an der Anwendung dieser Verordnung beteiligten Parteien Transparenz und Offenheit anstreben und gleichzeitig die Vertraulichkeit der im Rahmen der Durchführung ihrer Tätigkeiten erlangten Informationen und Daten wahren, indem sie technische und organisatorische Maßnahmen zum Schutz der Sicherheit und Vertraulichkeit der im Rahmen der Durchführung ihrer Tätigkeiten erlangten Informationen, unter anderem für Rechte des geistigen Eigentums und öffentliche und nationale Sicherheitsinteressen, ergreifen. Für den Fall, dass die Tätigkeiten der Kommission, der zuständigen nationalen Behörden und der notifizierten Stellen gemäß dieser Verordnung zu einer Verletzung von Rechten des geistigen Eigentums führen, sollten die Mitgliedstaaten geeignete Maßnahmen und Rechtsbehelfe vorsehen, um die Durchsetzung der Rechte des geistigen Eigentums in Anwendung der Richtlinie 2004/48/EG zu gewährleisten.

Änderungsantrag  132

 

Vorschlag für eine Verordnung

Erwägung 84

 

Vorschlag der Kommission

Geänderter Text

(84) Die Mitgliedstaaten sollten alle erforderlichen Maßnahmen ergreifen, um sicherzustellen, dass die Bestimmungen dieser Verordnung eingehalten werden, und dazu u. a. wirksame, verhältnismäßige und abschreckende Sanktionen für Verstöße festlegen. Bei bestimmten Verstößen sollten die Mitgliedstaaten die in dieser Verordnung festgelegten Spielräume und Kriterien berücksichtigen. Der Europäische Datenschutzbeauftragte sollte befugt sein, gegen Organe, Einrichtungen und sonstige Stellen der Union, die in den Anwendungsbereich dieser Verordnung fallen, Geldbußen zu verhängen.

(84) Die Einhaltung dieser Verordnung sollte durch die Verhängung von Geldbußen durch die nationale Aufsichtsbehörde bei der Durchführung von Verfahren nach dem in dieser Verordnung festgelegten Verfahren durchsetzbar sein. Die Mitgliedstaaten sollten alle erforderlichen Maßnahmen ergreifen, um sicherzustellen, dass die Bestimmungen dieser Verordnung eingehalten werden, und dazu u. a. wirksame, verhältnismäßige und abschreckende Sanktionen für Verstöße festlegen. Um die verwaltungsrechtlichen Sanktionen für Verstöße gegen diese Verordnung zu verschärfen und zu harmonisieren, sollten die Obergrenzen für die Festsetzung der Geldbußen bei bestimmten Verstößen festgelegt werden. Bei der Bemessung der Höhe der Geldbußen sollten die zuständigen nationalen Behörden in jedem Einzelfall alle relevanten Umstände der jeweiligen Situation berücksichtigen, insbesondere die Art, die Schwere und die Dauer des Verstoßes und seiner Folgen sowie die Größe des Anbieters, vor allem wenn es sich bei diesem um ein KMU oder ein Start-up-Unternehmen handelt. Der Europäische Datenschutzbeauftragte sollte befugt sein, gegen Organe, Einrichtungen und sonstige Stellen der Union, die in den Anwendungsbereich dieser Verordnung fallen, Geldbußen zu verhängen. Die Sanktionen und Gerichtskosten gemäß dieser Verordnung sollten nicht Gegenstand von Vertragsklauseln oder anderen Vereinbarungen sein.

Änderungsantrag  133

 

Vorschlag für eine Verordnung

Erwägung 84 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(84a) Da die Rechte und Freiheiten natürlicher und juristischer Personen und Gruppen natürlicher Personen durch KI-Systeme ernsthaft beeinträchtigt werden können, ist es von wesentlicher Bedeutung, dass natürliche und juristische Personen oder Gruppen natürlicher Personen sinnvollen Zugang zu Melde- und Rechtsbehelfsmechanismen haben und das Recht auf Zugang zu verhältnismäßigen und wirksamen Rechtsbehelfen haben. Sie sollten in der Lage sein, Verstöße gegen diese Verordnung ihrer nationalen Aufsichtsbehörde zu melden, und das Recht haben, eine Beschwerde gegen die Anbieter oder Betreiber von KI-Systemen einzureichen. Gegebenenfalls sollten die Betreiber interne Beschwerdemechanismen bereitstellen, die von natürlichen und juristischen Personen oder Gruppen von natürlichen Personen genutzt werden können. Unbeschadet anderer verwaltungsrechtlicher oder außergerichtlicher Rechtsbehelfe sollten natürliche und juristische Personen und Gruppen natürlicher Personen auch das Recht auf einen wirksamen gerichtlichen Rechtsbehelf in Bezug auf eine sie betreffende rechtsverbindliche Entscheidung einer nationalen Aufsichtsbehörde oder, wenn die nationale Aufsichtsbehörde eine Beschwerde nicht bearbeitet, den Beschwerdeführer nicht über den Fortgang oder das vorläufige Ergebnis der eingereichten Beschwerde informiert oder ihrer Verpflichtung, eine endgültige Entscheidung zu treffen, nicht nachkommt, in Bezug auf die Beschwerde haben.

Änderungsantrag  134

 

Vorschlag für eine Verordnung

Erwägung 84 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(84b) Betroffene Personen sollten stets darüber informiert werden, dass sie dem Einsatz eines Hochrisiko-KI-Systems ausgesetzt sind, wenn Betreiber ein Hochrisiko-KI-System zur Unterstützung bei der Entscheidungsfindung einsetzen oder Entscheidungen in Bezug auf natürliche Personen treffen. Auf der Grundlage dieser Information können betroffene Personen ihr Recht auf eine Erklärung gemäß dieser Verordnung wahrnehmen. Wenn die Betreiber betroffenen Personen im Rahmen dieser Verordnung eine Erklärung bieten, sollten sie den Sachverstand und die Kenntnisse des Durchschnittsverbrauchers oder der Durchschnittsperson berücksichtigen.

Änderungsantrag  135

 

Vorschlag für eine Verordnung

Erwägung 84 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(84c) Das Unionsrecht zum Schutz von Hinweisgebern (Richtlinie (EU) 2019/1937) gilt uneingeschränkt für Wissenschaftler, Konstrukteure, Entwickler, Projektmitarbeiter, Prüfer, Produktmanager, Ingenieure und Wirtschaftsakteure, die Kenntnis von Informationen über Verstöße gegen das Unionsrecht durch einen Anbieter eines KI-Systems oder durch sein KI-System erlangen.

Änderungsantrag  136

 

Vorschlag für eine Verordnung

Erwägung 85

 

Vorschlag der Kommission

Geänderter Text

(85) Damit der Rechtsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der in Anhang I genannten Techniken und Konzepte für die Einstufung von KI-Systemen, der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der in Anhang III aufgeführten Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation in Anhang IV, des Inhalts der EU-Konformitätserklärung in Anhang V, der Bestimmungen über die Konformitätsbewertungsverfahren in den Anhängen VI und VII und der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme zu erlassen, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung58 niedergelegt wurden. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.

(85) Damit der Rechtsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der in Anhang III aufgeführten Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation in Anhang IV, des Inhalts der EU-Konformitätserklärung in Anhang V, der Bestimmungen über die Konformitätsbewertungsverfahren in den Anhängen VI und VII und der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme zu erlassen, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung58 niedergelegt wurden. An diesen Konsultationen sollte eine ausgewogene Auswahl von Interessenträgern teilnehmen, einschließlich Verbraucherorganisationen, Verbänden, die betroffene Personen vertreten, Vertretern von Unternehmen aus verschiedenen Sektoren und von unterschiedlicher Größe sowie Forschern und Wissenschaftlern. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.

__________________

__________________

58 ABl. L 123 vom 12.5.2016, S. 1.

58 ABl. L 123 vom 12.5.2016, S. 1.

Änderungsantrag  137

 

Vorschlag für eine Verordnung

Erwägung 85 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(85a) Angesichts der rasanten technologischen Entwicklungen und des erforderlichen technischen Fachwissens bei der Bewertung von Hochrisiko-KI-Systemen sollte die Kommission die Durchführung dieser Verordnung, insbesondere die verbotenen KI-Systeme, die Transparenzpflichten und die Liste der Bereiche und Anwendungsfälle mit hohem Risiko, regelmäßig, mindestens jedoch einmal jährlich, überprüfen und dabei das Amt für künstliche Intelligenz und die einschlägigen Interessenträger konsultieren.

Änderungsantrag  138

 

Vorschlag für eine Verordnung

Erwägung 87 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(87a) Da es nur wenige verlässliche Informationen über den Ressourcen- und Energieverbrauch, die Abfallproduktion und andere Umweltauswirkungen von KI-Systemen und der damit verbundenen IKT-Technologie, einschließlich Software, Hardware und insbesondere Rechenzentren, gibt, sollte die Kommission eine angemessene Methodik zur Messung der Umweltauswirkungen und der Wirksamkeit dieser Verordnung im Hinblick auf die Umwelt- und Klimaziele der Union einführen.

Änderungsantrag  139

 

Vorschlag für eine Verordnung

Erwägung 89

 

Vorschlag der Kommission

Geänderter Text

(89) Der Europäische Datenschutzbeauftragte und der Europäische Datenschutzausschuss wurden gemäß Artikel 42 Absatz 2 der Verordnung (EU) 2018/1725 angehört und haben am [...] eine Stellungnahme abgegeben —

(89) Der Europäische Datenschutzbeauftragte und der Europäische Datenschutzausschuss wurden gemäß Artikel 42 Absatz 2 der Verordnung (EU) 2018/1725 angehört und haben am 18. Juni 2021 eine Stellungnahme abgegeben —

Änderungsantrag  140

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1. Ziel dieser Verordnung ist es, die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz zu fördern und ein hohes Maß an Schutz der Gesundheit, der Sicherheit, der Grundrechte, der Demokratie und der Rechtsstaatlichkeit sowie der Umwelt vor schädlichen Auswirkungen von Systemen der künstlichen Intelligenz in der Union sicherzustellen und gleichzeitig die Innovation zu fördern.

Änderungsantrag  141

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) harmonisierte Transparenzvorschriften für KI-Systeme, die mit natürlichen Personen interagieren sollen, für KI-Systeme zur Emotionserkennung und zur biometrischen Kategorisierung sowie für KI-Systeme, die zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten verwendet werden;

d) harmonisierte Transparenzvorschriften für bestimmte KI-Systeme;

Änderungsantrag  142

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) Vorschriften für die Marktbeobachtung und Marktüberwachung.

e) Vorschriften für die Marktbeobachtung sowie die Steuerung und Durchsetzung der Marktüberwachung;

Änderungsantrag  143

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) Maßnahmen zur Innovationsförderung mit besonderem Augenmerk auf KMU und Start-ups, einschließlich der Einrichtung von Reallaboren und gezielter Maßnahmen zur Verringerung des Regelungsaufwands für KMU und Start-ups;

Änderungsantrag  144

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

eb) Vorschriften für die Einrichtung und Arbeitsweise des Amts für künstliche Intelligenz der Union.

Änderungsantrag  145

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Nutzer von KI-Systemen, die sich in der Union befinden;

b) Betreiber von KI-Systemen, die ihren Sitz in der Union haben oder die sich in der Union befinden;

Änderungsantrag  146

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Anbieter und Nutzer von KI-Systemen, die in einem Drittland niedergelassen oder ansässig sind, wenn das vom System hervorgebrachte Ergebnis in der Union verwendet wird.

c) Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder die in einem Drittland niedergelassen oder ansässig sind, in dem entweder das Recht eines Mitgliedstaates aufgrund eines internationalen Rechts gilt oder wenn das vom System hervorgebrachte Ergebnis in der Union verwendet werden soll.

Änderungsantrag  147

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) Anbieter, die die in Artikel 5 genannten KI-Systeme außerhalb der Union in Verkehr bringen oder in Betrieb nehmen, wenn der Anbieter oder Händler dieser Systeme in der Union ansässig ist;

Änderungsantrag  148

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 1 – Buchstabe c b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cb) Einführer und Händler von KI-Systemen sowie bevollmächtigte Vertreter von Anbietern von KI-Systemen, wenn diese Einführer, Händler oder bevollmächtigten Vertreter ihre Niederlassung in der Union haben oder dort ansässig sind;

Änderungsantrag  149

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 1 – Buchstabe c c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cc) betroffene Personen im Sinne von Artikel 3 Absatz 8a, die in der Union ansässig sind und deren Gesundheit, Sicherheit oder Grundrechte durch die Verwendung eines KI-Systems, das in der Union in Verkehr gebracht oder in Betrieb genommen wird, beeinträchtigt werden.

Änderungsantrag  150

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Für Hochrisiko-KI-Systeme, die Sicherheitskomponenten von Produkten oder Systemen oder selbst Produkte oder Systeme sind, die in den Anwendungsbereich der folgenden Rechtsakte fallen, gilt nur Artikel 84 dieser Verordnung:

(2) Für Hochrisiko-KI-Systeme, die Sicherheitskomponenten von Produkten oder Systemen oder selbst Produkte oder Systeme sind und die in den Anwendungsbereich der in Anhang II Abschnitt B aufgeführten Harmonisierungsrechtsvorschriften fallen, gilt nur Artikel 84 dieser Verordnung;

Änderungsantrag  151

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Verordnung (EG) Nr. 300/2008,

entfällt

Änderungsantrag  152

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Verordnung (EU) Nr. 167/2013,

entfällt

Änderungsantrag  153

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Verordnung (EU) Nr. 168/2013,

entfällt

Änderungsantrag  154

 

Vorschlag für eine Verordnung

Artikel 2– Absatz 2 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) Richtlinie 2014/90/EU,

entfällt

Änderungsantrag  155

 

Vorschlag für eine Verordnung

Artikel 2– Absatz 2 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) Richtlinie (EU) 2016/797,

entfällt

Änderungsantrag  156

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) Verordnung (EU) 2018/858,

entfällt

Änderungsantrag  157

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) Verordnung (EU) 2018/1139,

entfällt

Änderungsantrag  158

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe h

 

Vorschlag der Kommission

Geänderter Text

h) Verordnung (EU) 2019/2144.

entfällt

Änderungsantrag  159

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Diese Verordnung gilt weder für Behörden in Drittländern noch für internationale Organisationen, die gemäß Absatz 1 in den Anwendungsbereich dieser Verordnung fallen, soweit diese Behörden oder Organisationen KI-Systeme im Rahmen internationaler Übereinkünfte im Bereich der Strafverfolgung und justiziellen Zusammenarbeit mit der Union oder mit einem oder mehreren Mitgliedstaaten verwenden.

(4) Diese Verordnung gilt weder für Behörden in Drittländern noch für internationale Organisationen, die gemäß Absatz 1 in den Anwendungsbereich dieser Verordnung fallen, soweit diese Behörden oder Organisationen KI-Systeme im Rahmen internationaler Kooperationen oder Übereinkünfte im Bereich der Strafverfolgung und justiziellen Zusammenarbeit mit der Union oder mit einem oder mehreren Mitgliedstaaten verwenden und Gegenstand eines Beschlusses der Kommission sind, der gemäß Artikel 36 der Richtlinie (EU) 2016/680 oder Artikel 45 der Verordnung (EU) 2016/679 (Angemessenheitsbeschluss) erlassen wurde, oder Teil eines internationalen Abkommens sind, das zwischen der Union und dem betreffenden Drittland oder der internationalen Organisation gemäß Artikel 218 AEUV geschlossen wurde und angemessene Garantien in Bezug auf den Schutz der Privatsphäre und der Grundrechte und -freiheiten natürlicher Personen bietet;

Änderungsantrag  160

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Das Unionsrecht zum Schutz personenbezogener Daten, der Privatsphäre und der Vertraulichkeit der Kommunikation gilt für die Verarbeitung personenbezogener Daten im Zusammenhang mit den in dieser Verordnung festgelegten Rechten und Pflichten. Diese Verordnung berührt nicht die Verordnungen (EU) 2016/679 und (EU) 2018/1725 sowie die Richtlinien 2002/58/EG und (EU) 2016/680, unbeschadet der in Artikel 10 Absatz 5 und Artikel 54 der vorliegenden Verordnung vorgesehenen Regelungen;

Änderungsantrag  161

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5b) Diese Verordnung berührt nicht die Vorschriften anderer Rechtsakte der Union zum Verbraucherschutz und zur Produktsicherheit;

Änderungsantrag  162

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5c) Diese Verordnung hindert die Mitgliedstaaten oder die Union nicht daran, Rechts- oder Verwaltungsvorschriften beizubehalten oder einzuführen, die für die Arbeitnehmer im Hinblick auf den Schutz ihrer Rechte bei der Verwendung von KI-Systemen durch die Arbeitgeber vorteilhafter sind, oder die Anwendung von Tarifverträgen zu fördern oder zuzulassen, die für die Arbeitnehmer vorteilhafter sind.

Änderungsantrag  163

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5d) Diese Verordnung gilt nicht für Forschungs-, Test- und Entwicklungstätigkeiten in Bezug auf ein KI-System, bevor dieses System in Verkehr gebracht oder in Betrieb genommen wird, vorausgesetzt, dass diese Tätigkeiten unter Wahrung der Grundrechte und des geltenden Unionsrechts durchgeführt werden. Die Kommission wird ermächtigt, delegierte Rechtsakte gemäß Artikel 73 zu erlassen, die die Anwendung dieses Absatzes präzisieren, um diese Ausnahme zu spezifizieren und ihren bestehenden und potenziellen Missbrauch zu verhindern. Das Amt für künstliche Intelligenz stellt Leitlinien für die Steuerung von Forschung und Entwicklung gemäß Artikel 56 zur Verfügung, die auch darauf abzielen, die Anwendung dieser Leitlinien durch die nationalen Aufsichtsbehörden zu koordinieren;

Änderungsantrag  164

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5e) Diese Verordnung gilt nicht für KI-Komponenten, die unter freien Lizenzen und Open-Source-Lizenzen bereitgestellt werden, es sei denn, sie werden von einem Anbieter als Teil eines Hochrisiko-KI-Systems oder eines KI-Systems, das unter Titel II oder IV fällt, in Verkehr gebracht oder in Betrieb genommen. Diese Ausnahmeregelung gilt nicht für Basismodelle im Sinne von Artikel 3.

Änderungsantrag  165

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 1

 

Vorschlag der Kommission

Geänderter Text

1. „System der künstlichen Intelligenz“ (KI-System) eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren;

1. „System der künstlichen Intelligenz“ (KI-System) ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie operieren kann und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das physische oder virtuelle Umfeld beeinflussen;

Änderungsantrag  166

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1a. „Risiko“ die Kombination aus der Wahrscheinlichkeit des Auftretens eines Schadens und der Schwere dieses Schadens;

Änderungsantrag  167

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1b. „erhebliches Risiko“ ein Risiko, das aufgrund der Kombination von Schwere, Intensität, Eintrittswahrscheinlichkeit und Dauer seiner Auswirkungen sowie seiner Eigenschaft, eine Einzelperson, eine Vielzahl von Personen oder eine bestimmte Personengruppe zu beeinträchtigen, erheblich ist;

Änderungsantrag  168

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 1 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1c. „Basismodell“ ein KI-Systemmodell, das auf einer breiten Datenbasis trainiert wurde, auf eine allgemeine Ausgabe ausgelegt ist und an eine breite Palette unterschiedlicher Aufgaben angepasst werden kann;

Änderungsantrag  169

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 1 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1d. „KI-System mit allgemeinem Verwendungszweck“ ein KI-System, das in einem breiten Spektrum von Anwendungen eingesetzt und an diese angepasst werden kann, für die es nicht absichtlich und speziell entwickelt wurde;

Änderungsantrag  170

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 1 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1e. „große Trainingsläufe“ den Produktionsprozess eines leistungsstarken KI-Modells, der Rechenressourcen oberhalb einer sehr hohen Schwelle erfordert;

Änderungsantrag  171

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 3

 

Vorschlag der Kommission

Geänderter Text

3. „Kleinanbieter“ einen Anbieter, bei dem es sich um ein Kleinst- oder Kleinunternehmen im Sinne der Empfehlung 2003/361/EG der Kommission61 handelt;

entfällt

__________________

 

61 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (ABl. L 124 vom 20.5.2003, S. 36).

 

Änderungsantrag  172

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 4

 

Vorschlag der Kommission

Geänderter Text

4. Nutzer“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet;

4. Betreiber“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet;

 

Änderungsantrag  173

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 8

 

Vorschlag der Kommission

Geänderter Text

8. „Akteur“ den Anbieter, den Nutzer, den Bevollmächtigten, den Einführer und den Händler;

8. „Akteur“ den Anbieter, den Betreiber, den Bevollmächtigten, den Einführer und den Händler;

Änderungsantrag  174

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 8 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

8a. „betroffene Person“ jede natürliche Person oder Personengruppe, die einem KI-System unterliegt oder anderweitig davon betroffen ist;

 

Änderungsantrag  175

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 11

 

Vorschlag der Kommission

Geänderter Text

11. „Inbetriebnahme“ die Bereitstellung eines KI-Systems auf dem Unionsmarkt zum Erstgebrauch direkt an den Nutzer oder zum Eigengebrauch entsprechend seiner Zweckbestimmung;

11. „Inbetriebnahme“ die Bereitstellung eines KI-Systems auf dem Unionsmarkt zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung;

Änderungsantrag  176

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 13

 

Vorschlag der Kommission

Geänderter Text

13. „vernünftigerweise vorhersehbare Fehlanwendung“ die Verwendung eines KI-Systems in einer Weise, die nicht seiner Zweckbestimmung entspricht, die sich aber aus einem vernünftigerweise vorhersehbaren menschlichen Verhalten oder einer vernünftigerweise vorhersehbaren Interaktion mit anderen Systemen ergeben kann;

13. „vernünftigerweise vorhersehbare Fehlanwendung“ die Verwendung eines KI-Systems in einer Weise, die nicht seiner Zweckbestimmung gemäß der vom Anbieter bereitgestellten Gebrauchsanweisung entspricht, die sich aber aus einem vernünftigerweise vorhersehbaren menschlichen Verhalten oder einer vernünftigerweise vorhersehbaren Interaktion mit anderen Systemen, einschließlich anderer KI-Systeme, ergeben kann;

Änderungsantrag  177

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 14

 

Vorschlag der Kommission

Geänderter Text

14. „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Sachen gefährdet;

14. „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen gefährdet;

Änderungsantrag  178

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 15

 

Vorschlag der Kommission

Geänderter Text

15. „Gebrauchsanweisung“ die Informationen, die der Anbieter bereitstellt, um den Nutzer insbesondere über die Zweckbestimmung und die ordnungsgemäße Verwendung eines KI-Systems zu informieren, einschließlich der besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen ein Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll;

15. „Gebrauchsanweisung“ die Informationen, die der Anbieter bereitstellt, um den Betreiber insbesondere über die Zweckbestimmung und die ordnungsgemäße Verwendung eines KI-Systems sowie über die zu treffenden Vorsichtsmaßnahmen zu informieren; einschließlich der besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen ein Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll;

Änderungsantrag  179

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 16

 

Vorschlag der Kommission

Geänderter Text

16. „Rückruf eines KI-Systems“ jede Maßnahme, die auf die Rückgabe eines den Nutzern bereits zur Verfügung gestellten KI-Systems an den Anbieter abzielt;

16. „Rückruf eines KI-Systems“ jede Maßnahme, die auf die Rückgabe eines den Betreibern bereits zur Verfügung gestellten KI-Systems an den Anbieter abzielt;

Änderungsantrag  180

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 20

 

Vorschlag der Kommission

Geänderter Text

20. „Konformitätsbewertung“ das Verfahren zur Überprüfung, ob die in Titel III Kapitel 2 dieser Verordnung festgelegten Anforderungen an ein KI-System erfüllt worden sind;

20. „Konformitätsbewertung“ das Verfahren für den Nachweis, ob die in Titel III Kapitel 2 dieser Verordnung festgelegten Anforderungen an ein KI-System erfüllt worden sind;

Änderungsantrag  181

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 22

 

Vorschlag der Kommission

Geänderter Text

22. „notifizierte Stelle“ eine Konformitätsbewertungsstelle, die gemäß dieser Verordnung und anderen einschlägigen Harmonisierungsvorschriften der Union benannt wurde;

22. „notifizierte Stelle“ eine Konformitätsbewertungsstelle, die gemäß dieser Verordnung und anderen einschlägigen Harmonisierungsvorschriften der Union notifiziert wurde;

Änderungsantrag  182

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 23

 

Vorschlag der Kommission

Geänderter Text

23. „wesentliche Änderung“ eine Änderung des KI-Systems nach dessen Inverkehrbringen oder Inbetriebnahme, die sich auf die Konformität des KI-Systems mit den Anforderungen in Titel III Kapitel 2 dieser Verordnung auswirkt oder zu einer Änderung der Zweckbestimmung führt, für die das KI-System geprüft wurde;

23. „wesentliche Änderung“ eine Änderung oder eine Reihe von Änderungen des KI-Systems nach dessen Inverkehrbringen oder Inbetriebnahme, die in der ursprünglichen Risikobewertung des Anbieters nicht vorgesehen oder geplant war und durch die die Konformität des KI-Systems mit den Anforderungen in Titel III Kapitel 2 dieser Verordnung beeinträchtigt wird oder die zu einer Änderung der Zweckbestimmung führt, für die das KI-System geprüft wurde;

Änderungsantrag  183

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 24

 

Vorschlag der Kommission

Geänderter Text

24. „CE-Konformitätskennzeichnung“ (CE-Kennzeichnung) eine Kennzeichnung, durch die ein Anbieter erklärt, dass ein KI-System die Anforderungen erfüllt, die in Titel III Kapitel 2 dieser Verordnung und in anderen einschlägigen Rechtsvorschriften der Union zur Harmonisierung der Bedingungen für die Vermarktung von Produkten („Harmonisierungsrechtsvorschriften der Union“), die die Anbringung dieser Kennzeichnung vorsehen, festgelegt sind;

24. „CE-Konformitätskennzeichnung“ (CE-Kennzeichnung) eine physische oder digitale Kennzeichnung, durch die ein Anbieter erklärt, dass ein KI-System oder ein Produkt mit einem eingebetteten KI-System die Anforderungen erfüllt, die in Titel III Kapitel 2 dieser Verordnung und in anderen einschlägigen Rechtsvorschriften der Union zur Harmonisierung der Bedingungen für die Vermarktung von Produkten („Harmonisierungsrechtsvorschriften der Union“), die die Anbringung dieser Kennzeichnung vorsehen, festgelegt sind;

Änderungsantrag  184

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 29

 

Vorschlag der Kommission

Geänderter Text

29. „Trainingsdaten“ Daten, die zum Trainieren eines KI-Systems verwendet werden, wobei dessen lernbare Parameter und die Gewichte eines neuronalen Netzes angepasst werden;

29. „Trainingsdaten“ Daten, die zum Trainieren eines KI-Systems verwendet werden, wobei dessen lernbare Parameter angepasst werden;

Änderungsantrag  185

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 30

 

Vorschlag der Kommission

Geänderter Text

30. „Validierungsdaten“ Daten, die zum Bewerten des trainierten KI-Systems und zum Abstimmen seiner nicht lernbaren Parameter und seines Lernprozesses verwendet werden, um unter anderem eine Überanpassung zu vermeiden; der Validierungsdatensatz kann ein separater Datensatz oder Teil des Trainingsdatensatzes mit fester oder variabler Aufteilung sein;

30. „Validierungsdaten“ Daten, die zum Bewerten des trainierten KI-Systems und zum Abstimmen seiner nicht lernbaren Parameter und seines Lernprozesses verwendet werden, um unter anderem eine Unter- oder Überanpassung zu vermeiden; der Validierungsdatensatz ist ein separater Datensatz oder Teil des Trainingsdatensatzes mit fester oder variabler Aufteilung;

Änderungsantrag  186

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 33

 

Vorschlag der Kommission

Geänderter Text

33. „biometrische Daten“ mit speziellen technischen Verfahren gewonnene personenbezogene Daten zu den physischen, physiologischen oder verhaltenstypischen Merkmalen einer natürlichen Person, die die eindeutige Identifizierung dieser natürlichen Person ermöglichen oder bestätigen, wie Gesichtsbilder oder daktyloskopische Daten;

33. „biometrische Daten“ biometrische Daten im Sinne der Begriffsbestimmung in Artikel 4 Nummer 14 der Verordnung (EU) 2016/679;

Änderungsantrag  187

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 33 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

33a. „biometriegestützte Daten“ Daten, die sich aus einer spezifischen technischen Verarbeitung von physischen, physiologischen oder verhaltensbezogenen Signalen einer natürlichen Person ergeben;

Änderungsantrag  188

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 33 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

33b. „biometrische Identifizierung“ die automatisierte Erkennung physischer, physiologischer, verhaltensbezogener und psychologischer menschlicher Merkmale zum Zwecke der Feststellung der Identität einer Person durch den Vergleich biometrischer Daten dieser Person mit gespeicherten biometrischen Daten von Personen in einer Datenbank (One-to-many-Identifizierung);

Änderungsantrag  189

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 33 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

33 c) „biometrische Überprüfung“ die automatisierte Überprüfung der Identität natürlicher Personen durch den Vergleich biometrischer Daten einer Person mit zuvor bereitgestellten biometrischen Daten (Eins-zu-Eins-Überprüfung, einschließlich Authentifizierung);

Änderungsantrag  190

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 33 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

33d. „besondere Kategorien personenbezogener Daten“ die in Artikel 9 Absatz 1der Verordnung (EU) 2016/679 aufgeführten Kategorien personenbezogener Daten;

Änderungsantrag  191

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 34

 

Vorschlag der Kommission

Geänderter Text

34. „Emotionserkennungssystem“ ein KI-System, das dem Zweck dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten festzustellen oder daraus abzuleiten;

34. „Emotionserkennungssystem“ ein KI-System, das dem Zweck dient, Emotionen, Gedanken, Geisteszustände oder Absichten von Einzelpersonen oder Gruppen auf der Grundlage ihrer biometrischen und biometriegestützten Daten festzustellen oder daraus abzuleiten;

Änderungsantrag  192

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 35

 

Vorschlag der Kommission

Geänderter Text

35. „System zur biometrischen Kategorisierung“ ein KI-System, das dem Zweck dient, natürliche Personen auf der Grundlage ihrer biometrischen Daten bestimmten Kategorien wie Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierung, ethnische Herkunft oder sexuelle oder politische Ausrichtung zuzuordnen;

35. „biometrische Kategorisierung“ die Zuordnung natürlicher Personen zu bestimmten Kategorien oder die Ableitung ihrer Merkmale und Atttribute auf der Grundlage ihrer biometrischen oder biometriegestützten Daten oder der Daten, die aus diesen Daten abgeleitet werden können;

Änderungsantrag  193

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 36

 

Vorschlag der Kommission

Geänderter Text

36. „biometrisches Fernidentifizierungssystem“ ein KI-System, das dem Zweck dient, natürliche Personen aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, ohne dass der Nutzer des KI-Systems vorher weiß, ob die Person anwesend sein wird und identifiziert werden kann;

36. „biometrisches Fernidentifizierungssystem“ ein KI-System, das dem Zweck dient, natürliche Personen aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, ohne dass der Betreiber des KI-Systems vorher weiß, ob die Person anwesend sein wird und identifiziert werden kann, mit Ausnahme von Verifizierungssystemen;

Änderungsantrag  194

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 37

 

Vorschlag der Kommission

Geänderter Text

37. „biometrisches Echtzeit-Fernidentifizierungssystem“ ein biometrisches Fernidentifizierungssystem, bei dem die Erfassung biometrischer Daten, der Abgleich und die Identifizierung ohne erhebliche Verzögerung erfolgen; zur Vermeidung einer Umgehung der Vorschriften umfasst dies nicht nur die sofortige Identifizierung, sondern auch eine Identifizierung mit begrenzten kurzen Verzögerungen;

37. „biometrisches Echtzeit-Fernidentifizierungssystem“ ein biometrisches Fernidentifizierungssystem, bei dem die Erfassung biometrischer Daten, der Abgleich und die Identifizierung ohne erhebliche Verzögerung erfolgen; zur Vermeidung einer Umgehung der Vorschriften umfasst dies nicht nur die sofortige Identifizierung, sondern auch eine Identifizierung mit begrenzten Verzögerungen;

Änderungsantrag  195

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 39

 

Vorschlag der Kommission

Geänderter Text

39. „öffentlich zugänglicher Raum“ einen der Öffentlichkeit zugänglichen physischen Ort, unabhängig davon, ob dafür bestimmte Zugangsbedingungen gelten;

39. „öffentlich zugänglicher Raum“ einen der Öffentlichkeit zugänglichen physischen Ort in öffentlichem oder privatem Besitz, unabhängig davon, ob dafür bestimmte Zugangsbedingungen gelten, und unabhängig von möglichen Kapazitätsbeschränkungen;

Änderungsantrag  196

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 41

 

Vorschlag der Kommission

Geänderter Text

41. „Strafverfolgung“ Tätigkeiten der Strafverfolgungsbehörden zur Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder zur Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit;

41. „Strafverfolgung“ Tätigkeiten der Strafverfolgungsbehörden oder in deren Auftrag zur Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder zur Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit;

Änderungsantrag  197

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 42

 

Vorschlag der Kommission

Geänderter Text

42. „nationale Aufsichtsbehörde“ die Behörde, der ein Mitgliedstaat die Verantwortung für die Durchführung und Anwendung dieser Verordnung, die Koordinierung der diesem Mitgliedstaat übertragenen Tätigkeiten, die Wahrnehmung der Funktion der zentralen Kontaktstelle für die Kommission und die Vertretung des Mitgliedstaats im Europäischen Ausschuss für künstliche Intelligenz überträgt;

42. „nationale Aufsichtsbehörde“ eine öffentliche (AM 69) Behörde, der ein Mitgliedstaat die Verantwortung für die Durchführung und Anwendung dieser Verordnung, die Koordinierung der diesem Mitgliedstaat übertragenen Tätigkeiten, die Wahrnehmung der Funktion der zentralen Kontaktstelle für die Kommission und die Vertretung des Mitgliedstaats im Verwaltungsrat des Büros für künstliche Intelligenz überträgt;

Änderungsantrag  198

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 43

 

Vorschlag der Kommission

Geänderter Text

43. „zuständige nationale Behörde“ die nationale Aufsichtsbehörde, die notifizierende Behörde und die Marktüberwachungsbehörde;

43. „zuständige nationale Behörde“ eine der nationalen Behörden, die für die Durchsetzung dieser Verordnung zuständig sind;

Änderungsantrag  199

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

44. „schwerwiegender Vorfall“ ein Vorkommnis, das direkt oder indirekt eine der nachstehenden Folgen hat, hätte haben können oder haben könnte:

44. „schwerwiegender Vorfall“ ein Vorkommnis oder eine Fehlfunktion eines KI-Systems, das bzw. die direkt oder indirekt eine der nachstehenden Folgen hat, hätte haben können oder haben könnte:

 

a) den Tod einer Person oder eine schwere gesundheitliche Schädigung einer Person,

 

b) eine schwere Störung der Verwaltung und des Betriebs kritischer Infrastrukturen;

 

ba) einen Verstoß gegen die durch das Unionsrecht geschützten Grundrechte;

 

bb) schwere Sach- oder Umweltschäden,

Änderungsantrag  200

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44a. „personenbezogene Daten“ personenbezogene Daten im Sinne des Artikels 4 Nummer 1 der Verordnung (EU) 2016/679;

Änderungsantrag  201

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44b. „nicht personenbezogene Daten“ Daten, die keine personenbezogenen Daten sind;

Änderungsantrag  202

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44c. „Profiling“ jede Form der automatisierten Verarbeitung personenbezogener Daten im Sinne von Artikel 4 Nummer 4 der Verordnung (EU) 2016/679 oder – im Falle von Strafverfolgungsbehörden – in Artikel 3 Nummer 4 der Richtlinie (EU) 2016/680 oder – im Falle von Organen, Einrichtungen und sonstigen Stellen der Union – in Artikel 3 Nummer 5 der Verordnung (EU) 2018/1725;

Änderungsantrag  203

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44d. „Deep Fake“ manipulierte oder künstliche Audio-, Bild- oder Videoinhalte, die fälschlicherweise den Anschein erwecken, authentisch oder wahrheitsgetreu zu sein, und die Darstellungen von Personen enthalten, die scheinbar Dinge sagen oder tun, die sie nicht gesagt oder getan haben, und die mit Hilfe von KI-Techniken, einschließlich maschinellen Lernens und Deep Learning, erstellt wurden;

Änderungsantrag  204

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44e. „weitverbreiteter Verstoß“ jede Handlung oder Unterlassung, die gegen das Unionsrecht verstößt, das die Interessen des Einzelnen schützt,

 

a) die die kollektiven Interessen von Einzelpersonen in mindestens zwei weiteren Mitgliedstaaten als dem Mitgliedstaat schädigt oder zu schädigen droht, in dem

 

i) die Handlung oder die Unterlassung ihren Ursprung hatte oder stattfand,

 

ii) der betreffende Anbieter oder gegebenenfalls sein Bevollmächtigter niedergelassen ist oder

 

iii) der Betreiber niedergelassen ist, sofern der Verstoß vom Betreiber begangen wird;

 

b) Handlungen oder Unterlassungen, die gegen das Unionsrecht verstoßen, das die Interessen des Einzelnen schützt, die die kollektiven Interessen von Einzelpersonen geschädigt haben, schädigen oder schädigen könnten und die gemeinsame Merkmale aufweisen, einschließlich derselben rechtswidrigen Praxis und desselben verletzten Interesses, und die gleichzeitig auftreten und von demselben Betreiber in mindestens drei Mitgliedstaaten begangen werden;

Änderungsantrag  205

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 f (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44f. „weitverbreiteter Verstoß mit unionsweiter Dimension“ ein weitverbreiteter Verstoß, der die kollektiven Interessen von Einzelpersonen in mindestens zwei Dritteln der Mitgliedstaaten, die zusammen mindestens zwei Drittel der Bevölkerung der Union ausmachen, geschädigt hat oder zu schädigen droht;

Änderungsantrag  206

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 g (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44g. „Reallabor“ ein von einer Behörde eingerichtetes kontrolliertes Umfeld, das die sichere Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum ermöglicht, bevor diese auf den Markt gebracht oder in Betrieb genommen werden, nach einem bestimmten Plan unter behördlicher Aufsicht;

Änderungsantrag  207

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 h (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44h. „kritische Infrastrukturen“ Objekte, Anlagen, Ausrüstung, Netze oder Systeme oder Teile eines Objekts, einer Anlage, Ausrüstung, eines Netzes oder eines Systems, die für die Erbringung eines wesentlichen Dienstes erforderlich sind, im Sinne von Artikel 2 Nummer 4 der Richtlinie (EU) 2022/2557;

Änderungsantrag  208

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Buchstabe 44 k (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44k. „Bewertung des sozialen Verhaltens“ die Bewertung oder Klassifizierung natürlicher Personen auf der Grundlage ihres sozialen Verhaltens, ihres sozioökonomischen Status oder bekannter oder vorhergesagter persönlicher oder charakterlicher Merkmale;

Änderungsantrag  209

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 g (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44l. „soziales Verhalten“ die Art und Weise, wie eine natürliche Person mit anderen natürlichen Personen oder der Gesellschaft interagiert und diese beeinflusst;

Änderungsantrag  210

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 m (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44m. „Stand der Technik“ den Entwicklungsstand der technischen Leistungsfähigkeit zu einem bestimmten Zeitpunkt in Bezug auf Produkte, Verfahren und Dienstleistungen, der auf den einschlägigen konsolidierten Erkenntnissen von Wissenschaft, Technik und Erfahrung beruht;

Änderungsantrag  211

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 n (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44n. „Testen unter realen Bedingungen“ das zeitlich begrenzte Testen eines KI-Systems für den vorgesehenen Zweck unter realen Bedingungen außerhalb eines Labors oder einer anderweitig simulierten Umgebung;

Änderungsantrag  212

 

Vorschlag für eine Verordnung

Artikel 4

 

Vorschlag der Kommission

Geänderter Text

Artikel 4

entfällt

Änderungen des Anhangs I

 

Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung der Liste der Techniken und Konzepte in Anhang I zu erlassen, um diese Liste auf der Grundlage von Merkmalen, die den dort aufgeführten Techniken und Konzepten ähnlich sind, an Marktentwicklungen und technische Entwicklungen anzupassen.

 

Änderungsantrag  213

 

Vorschlag für eine Verordnung

Artikel 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 4a

 

Allgemeine, für alle KI-Systeme geltende Grundsätze

 

(1) Alle Betreiber, die unter diese Verordnung fallen, setzen alles daran, KI-Systeme oder Basismodelle im Einklang mit den folgenden allgemeinen Grundsätzen zu entwickeln und zu nutzen, mit denen ein höchste Ansprüche erfüllender Rahmen geschaffen wird, mit dem ein kohärenter, auf den Menschen ausgerichteter Ansatz der Union für ethische und vertrauenswürdige künstliche Intelligenz gefördert wird, der uneingeschränkt mit der Charta und den Werten, auf die sich die Union gründet, im Einklang steht:

 

a) „Menschliches Handeln und menschliche Aufsicht“ bedeutet, dass KI-Systeme als Werkzeug entwickelt und verwendet werden, das den Menschen dient, die Menschenwürde und die persönliche Autonomie achtet und so funktioniert, dass es von Menschen angemessen kontrolliert und überwacht werden kann.

 

b) „Technische Robustheit und Sicherheit“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden, dass unbeabsichtigte und unerwartete Schäden minimiert werden und dass sie im Fall unbeabsichtigter Probleme robust und widerstandsfähig gegen Versuche sind, die Verwendung oder Leistung des KI-Systems so zu verändern, dass dadurch die unrechtmäßige Verwendung durch böswillige Dritte ermöglicht wird.

 

c) „Privatsphäre und Datenqualitätsmanagement“ bedeutet, dass KI-Systeme im Einklang mit den geltenden Vorschriften zum Schutz der Privatsphäre und zum Datenschutz entwickelt und verwendet werden und dabei Daten verarbeiten, die hohen Qualitäts- und Integritätsstandards genügen.

 

d) „Transparenz“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden müssen, dass sie angemessen nachvollziehbar und erklärbar sind, wobei den Menschen bewusst gemacht werden muss, dass sie mit einem KI-System kommunizieren oder interagieren, und dass die Nutzer ordnungsgemäß über die Fähigkeiten und Grenzen des KI-Systems und die betroffenen Personen über ihre Rechte informiert werden müssen.

 

e) „Vielfalt, Diskriminierungsfreiheit und Fairness“ bedeutet, dass KI-Systeme in einer Weise entwickelt und verwendet werden, die unterschiedliche Akteure einbezieht und den gleichberechtigten Zugang, die Geschlechtergleichstellung und die kulturelle Vielfalt fördert, wobei diskriminierende Auswirkungen und unfaire Verzerrungen, die nach Unionsrecht oder nationalem Recht verboten sind, verhindert werden.

 

f) „Soziales und ökologisches Wohlergehen“ bedeutet, dass KI-Systeme in nachhaltiger und umweltfreundlicher Weise und zum Nutzen aller Menschen entwickelt und verwendet werden, wobei die langfristigen Auswirkungen auf den Einzelnen, die Gesellschaft und die Demokratie überwacht und bewertet werden.

 

(2) Absatz 1 lässt die Verpflichtungen unberührt, die durch geltendes Unionsrecht und nationales Recht festgelegt sind. Bei Hochrisiko-KI-Systemen werden die allgemeinen Grundsätze durch die in den Artikeln 8 bis 15 und die in Titel III Kapitel 3 dieser Verordnung festgelegten Anforderungen von den Anbietern oder Betreibern umgesetzt und von ihnen eingehalten. Bei Basismodellen werden die allgemeinen Grundsätze durch die in den Artikeln 28 bis 28b festgelegten Anforderungen von den Anbietern umgesetzt und von ihnen eingehalten. Bei allen KI-Systemen kann die Anwendung der in Absatz 1 genannten Grundsätze je nach Fall durch die Bestimmungen von Artikel 28, Artikel 52 oder die Anwendung harmonisierter Normen, technischer Spezifikationen und Verhaltenskodizes gemäß Artikel 69 erreicht werden, ohne dass dadurch neue Verpflichtungen im Rahmen dieser Verordnung entstehen.

 

(3) Die Kommission und das Amt für künstliche Intelligenz lassen diese Grundsätze in Standardisierungsanträge sowie in Empfehlungen einfließen, bei denen es sich um technische Anleitungen handelt, um Anbieter und Betreiber bei der Entwicklung und Nutzung von KI-Systemen zu unterstützen. Die europäischen Normungsorganisationen berücksichtigen die in Absatz 1 dieses Artikels genannten allgemeinen Grundsätze als ergebnisorientierte Ziele, wenn sie geeignete harmonisierte Normen für AI-Systeme mit hohem Risiko im Sinne von Artikel 40 Absatz 2b entwickeln.

Änderungsantrag  214

 

Vorschlag für eine Verordnung

Artikel 4 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 4b

 

KI-Kompetenz

 

(1) Bei der Durchführung dieser Verordnung fördern die Union und die Mitgliedstaaten Maßnahmen zur Entwicklung eines ausreichenden Niveaus an KI-Kompetenz, und zwar sektorübergreifend und unter Berücksichtigung der unterschiedlichen Bedürfnisse der jeweiligen Gruppen von Anbietern, Betreibern und betroffenen Personen, unter anderem durch Aus- und Weiterbildungs-, Qualifizierungs- und Umschulungsprogramme und unter Sicherstellung eines ausgewogenen Verhältnisses in Bezug auf Geschlecht und Alter, um eine demokratische Kontrolle von KI-Systemen zu ermöglichen.

 

(2) Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.

 

(3) Solche Maßnahmen zur Kompetenzsteigerung bestehen insbesondere darin, grundlegende Konzepte und Fähigkeiten über KI-Systeme und ihre Funktionsweise zu vermitteln, einschließlich der verschiedenen Arten von Produkten und Verwendungszwecke, ihrer Risiken und Vorteile.

 

(4) Ein ausreichendes Maß an KI-Kompetenz trägt – falls angezeigt – dazu bei, dass Anbieter und Betreiber in der Lage sind, die Einhaltung und Durchsetzung dieser Verordnung sicherzustellen.

Änderungsantrag  215

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person einsetzt, um das Verhalten einer Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen physischen oder psychischen Schaden zufügt oder zufügen kann;

a) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken einsetzt, mit dem Ziel oder der Folge, dass das Verhalten einer Person oder einer Gruppe von Personen, indem die Fähigkeit der Person, eine fundierte Entscheidung zu treffen, spürbar beeinträchtigt wird, wodurch die Person veranlasst wird, eine Entscheidung zu treffen, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise, die dieser Person, einer anderen Person oder einer Gruppe von Personen erheblichen Schaden zufügt oder zufügen kann.

 

Das Verbot von KI-Systemen, die gemäß Unterabsatz 1 Techniken der unterschwelligen Beeinflussung einsetzen, gilt nicht für KI-Systeme, die für anerkannte therapeutische Zwecke auf der Grundlage einer ausdrücklichen, nach Aufklärung erteilten Einwilligung der ihnen ausgesetzten Personen oder gegebenenfalls ihres gesetzlichen Vertreters verwendet werden sollen;

Änderungsantrag  216

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das eine Schwäche oder Schutzbedürftigkeit einer bestimmten Gruppe von Personen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung ausnutzt, um das Verhalten einer dieser Gruppe angehörenden Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen physischen oder psychischen Schaden zufügt oder zufügen kann;

b) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das eine Schwäche oder Schutzbedürftigkeit einer Person oder einer bestimmten Gruppe von Personen einschließlich der Merkmale der bekannten oder vorhergesagten Persönlichkeitsmerkmale oder der sozialen oder wirtschaftlichen Situation der Person oder Gruppe von Personen, ihres Alters oder ihrer körperlichen oder geistigen Fähigkeiten ausnutzt, mit dem Ziel oder der Folge, das Verhalten dieser Person oder einer dieser Gruppe angehörenden Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person erheblichen Schaden zufügt oder zufügen kann;

Änderungsantrag  217

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von Systemen zur biometrischen Kategorisierung, die natürliche Personen nach sensitiven oder geschützten Attributen oder Merkmalen oder auf der Grundlage von Rückschlüssen auf diese Attribute oder Merkmale kategorisieren. Dieses Verbot gilt nicht für KI-Systeme, die für anerkannte therapeutische Zwecke auf der Grundlage einer ausdrücklichen, nach Aufklärung erteilten Einwilligung der ihnen ausgesetzten Personen oder gegebenenfalls ihres gesetzlichen Vertreters verwendet werden.

Änderungsantrag  218

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe c – Einleitung

 

Vorschlag der Kommission

Geänderter Text

c) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen durch Behörden oder in deren Auftrag zur Bewertung oder Klassifizierung der Vertrauenswürdigkeit natürlicher Personen über einen bestimmten Zeitraum auf der Grundlage ihres sozialen Verhaltens oder bekannter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale, wobei die soziale Bewertung zu einem oder beiden der folgenden Ergebnisse führt:

c) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen zur Bewertung des sozialen Verhaltens oder Klassifizierung natürlicher Personen oder Gruppen von natürlichen Personen über einen bestimmten Zeitraum auf der Grundlage ihres sozialen Verhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale, wobei die soziale Bewertung zu einem oder beiden der folgenden Ergebnisse führt:

Änderungsantrag  219

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe c – Ziffer i

 

Vorschlag der Kommission

Geänderter Text

i) Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden;

i) Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden;

Änderungsantrag  220

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe d – Einleitung

 

Vorschlag der Kommission

Geänderter Text

d) die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken, außer wenn und insoweit dies im Hinblick auf eines der folgenden Ziele unbedingt erforderlich ist:

d) die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen;

Änderungsantrag  221

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe d – Ziffer i

 

Vorschlag der Kommission

Geänderter Text

i) gezielte Suche nach bestimmten potenziellen Opfern von Straftaten oder nach vermissten Kindern;

entfällt

Änderungsantrag  222

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe d – Ziffer ii

 

Vorschlag der Kommission

Geänderter Text

ii) Abwenden einer konkreten, erheblichen und unmittelbaren Gefahr für das Leben oder die körperliche Unversehrtheit natürlicher Personen oder eines Terroranschlags;

entfällt

Änderungsantrag  223

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe d – Ziffer iii

 

Vorschlag der Kommission

Geänderter Text

iii) Erkennen, Aufspüren, Identifizieren oder Verfolgen eines Täters oder Verdächtigen einer Straftat im Sinne des Artikels 2 Absatz 2 des Rahmenbeschlusses 2002/584/JI des Rates62, der in dem betreffenden Mitgliedstaat nach dessen Recht mit einer Freiheitsstrafe oder einer freiheitsentziehenden Maßregel der Sicherung im Mindestmaß mit drei Jahren bedroht ist.

entfällt

__________________

 

62 Rahmenbeschluss 2002/584/JI des Rates vom 13. Juni 2002 über den Europäischen Haftbefehl und die Übergabeverfahren zwischen den Mitgliedstaaten (ABl. L 190 vom 18.7.2002, S. 1).

 

Änderungsantrag  224

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe d a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

da) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen zur Risikobeurteilung natürlicher Personen oder von Gruppen natürlicher Personen, um das Risiko einer natürlichen Person, straffällig zu werden oder erneut straffällig zu werden, einzuschätzen oder um das Auftreten oder die Wiederholung einer tatsächlichen oder potenziellen Straftat oder Ordnungswidrigkeit auf der Grundlage von Profilen natürlicher Personen oder der Bewertung von Persönlichkeitsmerkmalen, Eigenschaften, einschließlich des Standorts der Person, oder früheren kriminellen Verhaltens von natürlichen Personen oder Gruppen von natürlichen Personen vorherzusagen;

Änderungsantrag  225

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe d b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

db) das Inverkehrbringen, die Inbetriebnahme oder die Nutzung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern;

Änderungsantrag  226

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe d c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

dc) das Inverkehrbringen, die Inbetriebnahme oder die Nutzung von KI-Systemen zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Strafverfolgung, Grenzmanagement, am Arbeitsplatz und in Bildungseinrichtungen;

Änderungsantrag  227

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe d d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

dd) die Inbetriebnahme oder Nutzung von KI-Systemen zur Analyse von aufgezeichnetem Bildmaterial öffentlich zugänglicher Räume durch Systeme zur nachträglichen biometrischen Fernidentifizierung, es sei denn, sie unterliegen einer vorgerichtlichen Genehmigung im Einklang mit dem Unionsrecht und sind für die gezielte Fahndung im Zusammenhang mit einer bestimmten schweren Straftat im Sinne von Artikel 83 Absatz 1 AEUV, die bereits zum Zweck der Strafverfolgung stattgefunden hat, unbedingt erforderlich.

Änderungsantrag  228

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Dieser Artikel berührt nicht die Verbote, die gelten, wenn eine Praxis der künstlichen Intelligenz gegen ein anderes Unionsrecht verstößt, einschließlich des Unionsrechts zum Datenschutz, zur Diskriminierungsfreiheit, zum Verbraucherschutz oder zum Wettbewerb.

Änderungsantrag  229

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Hinblick auf die in Absatz 1 Buchstabe d genannten Ziele werden folgende Elemente berücksichtigt:

entfällt

a) die Art der Situation, die der möglichen Verwendung zugrunde liegt, insbesondere die Schwere, die Wahrscheinlichkeit und das Ausmaß des Schadens, der entstehen würde, wenn das System nicht eingesetzt würde;

 

b) die Folgen der Verwendung des Systems für die Rechte und Freiheiten aller betroffenen Personen, insbesondere die Schwere, die Wahrscheinlichkeit und das Ausmaß solcher Folgen.

 

Darüber hinaus sind bei der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Hinblick auf die in Absatz 1 Buchstabe d genannten Ziele notwendige und verhältnismäßige Schutzvorkehrungen und Bedingungen für die Verwendung einzuhalten, insbesondere in Bezug auf die zeitlichen, geografischen und personenbezogenen Beschränkungen.

 

Änderungsantrag  230

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Im Hinblick auf Absatz 1 Buchstabe d und Absatz 2 ist für jede einzelne Verwendung eines biometrischen Echtzeit-Fernidentifizierungssystems in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eine vorherige Genehmigung erforderlich, die von einer Justizbehörde oder einer unabhängigen Verwaltungsbehörde des Mitgliedstaats, in dem die Verwendung erfolgen soll, auf begründeten Antrag und im Einklang mit den in Absatz 4 genannten detaillierten Vorschriften des nationalen Rechts erteilt wird. In hinreichend begründeten dringenden Fällen kann jedoch mit der Verwendung des Systems zunächst ohne Genehmigung begonnen und die Genehmigung erst während oder nach der Nutzung beantragt werden.

entfällt

Die zuständige Justiz- oder Verwaltungsbehörde erteilt die Genehmigung nur dann, wenn sie auf der Grundlage objektiver Nachweise oder eindeutiger Hinweise, die ihr vorgelegt werden, davon überzeugt ist, dass die Verwendung des betreffenden biometrischen Echtzeit-Fernidentifizierungssystems für das Erreichen eines der in Absatz 1 Buchstabe d genannten Ziele – wie im Antrag angegeben – notwendig und verhältnismäßig ist. Bei ihrer Entscheidung über den Antrag berücksichtigt die zuständige Justiz- oder Verwaltungsbehörde die in Absatz 2 genannten Elemente.

 

Änderungsantrag  231

 

Vorschlag für eine Verordnung

Artikel 5 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Ein Mitgliedstaat kann die Möglichkeit einer vollständigen oder teilweisen Genehmigung der Verwendung biometrischer Echtzeit-Identifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken innerhalb der in Absatz 1 Buchstabe d, Absatz 2 und Absatz 3 aufgeführten Grenzen und unter den dort genannten Bedingungen vorsehen. Dieser Mitgliedstaat legt in seinem nationalen Recht die erforderlichen detaillierten Vorschriften für die Beantragung, Erteilung und Ausübung der in Absatz 3 genannten Genehmigungen sowie für die entsprechende Beaufsichtigung fest. In diesen Vorschriften wird auch festgelegt, im Hinblick auf welche der in Absatz 1 Buchstabe d genannten Ziele und welche der unter Ziffer iii genannten Straftaten die zuständigen Behörden ermächtigt werden können, diese Systeme zu Strafverfolgungszwecken zu verwenden.

entfällt

Änderungsantrag  232

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) das KI-System soll als Sicherheitskomponente eines unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder ist selbst ein solches Produkt;

a) das KI-System soll als Sicherheitskomponente eines unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt;

Änderungsantrag  233

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) das Produkt, dessen Sicherheitskomponente das KI-System ist, oder das KI-System selbst als Produkt muss einer Konformitätsbewertung durch Dritte im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union unterzogen werden.

b) das Produkt, dessen Sicherheitskomponente gemäß Buchstabe a das KI-System ist, oder das KI-System selbst als Produkt muss einer Konformitätsbewertung durch Dritte in Bezug auf die Risiken für Gesundheit und Sicherheit im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union unterzogen werden;

Änderungsantrag  234

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Zusätzlich zu den in Absatz 1 genannten Hochrisiko-KI-Systemen gelten die in Anhang III genannten KI-Systeme ebenfalls als hochriskant.

(2) Zusätzlich zu den in Absatz 1 genannten Hochrisiko-KI-Systemen gelten KI-Systeme, die unter einen oder mehrere der in Anhang III genannten kritischen Bereiche und Anwendungsfälle fallen, als hochriskant, wenn sie ein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte von natürlichen Personen darstellen. Fällt ein KI-System unter Anhang III Nummer 2, so gilt es als hochriskant, wenn es ein erhebliches Risiko für die Umwelt birgt.

 

Die Kommission legt sechs Monate vor Inkrafttreten dieser Verordnung nach Anhörung des Amtes für künstliche Intelligenz und der einschlägigen Interessenträger Leitlinien vor, in denen eindeutig festgelegt ist, unter welchen Umständen die Ergebnisse der in Anhang III genannten Systeme der künstlichen Intelligenz ein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte natürlicher Personen darstellen und in welchen Fällen dies nicht der Fall ist.

Änderungsantrag  235

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Wenn Anbieter, die unter einen oder mehrere der in Anhang III genannten kritischen Bereiche und Anwendungsfälle fallen, der Ansicht sind, dass ihr KI-System kein erhebliches Risiko im Sinne von Absatz 2 darstellt, übermitteln sie der nationalen Aufsichtsbehörde eine begründete Mitteilung, dass sie nicht den Anforderungen von Titel III Kapitel 2 dieser Verordnung unterliegen. Wenn das KI-System in zwei oder mehr Mitgliedstaaten verwendet werden soll, ist diese Mitteilung an das Büro für künstliche Intelligenz zu richten. Unbeschadet des Artikels 65 überprüft die nationale Aufsichtsbehörde die Mitteilung und antwortet innerhalb von drei Monaten direkt oder über das Büro für künstliche Intelligenz, wenn sie der Ansicht ist, dass das KI-System falsch eingestuft wurde.

Änderungsantrag  236

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2b) Anbieter, die ihr KI-System fälschlicherweise als nicht den Anforderungen von Titel III Kapitel 2 dieser Verordnung unterliegend einstufen und es vor Ablauf der Einspruchsfrist der nationalen Aufsichtsbehörden auf den Markt bringen, werden gemäß Artikel 71 mit Geldbußen belegt.

Änderungsantrag  237

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 2 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2c) Die nationalen Aufsichtsbehörden legen dem Büro für künstliche Intelligenz jährlich einen Bericht vor, in dem sie die Anzahl der eingegangenen Meldungen, die betreffenden Hochrisikobereiche und die im Zusammenhang mit den eingegangenen Mitteilungen getroffenen Entscheidungen darlegen.

Änderungsantrag  238

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung der Liste in Anhang III zu erlassen, um Hochrisiko-KI-Systeme hinzuzufügen, die beide folgenden Bedingungen erfüllen:

(1) Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung von Anhang III zu erlassen, um Bereiche oder Anwendungsfälle von Hochrisiko-KI-Systemen hinzuzufügen oder zu ändern, wenn diese ein erhebliches Risiko für die Gesundheit und Sicherheit darstellen oder nachteilige Auswirkungen auf die Grundrechte, die Umwelt oder die Demokratie und die Rechtsstaatlichkeit nach sich ziehen und dieses Risiko hinsichtlich seiner Schwere und Eintrittswahrscheinlichkeit dem Risiko eines Schadens oder nachteiliger Auswirkungen, das von den bereits in Anhang III genannten AI-Systemen mit hohem Risiko ausgeht, entspricht oder größer ist.

Änderungsantrag  239

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) die KI-Systeme sollen in einem der in Anhang III Nummern 1 bis 8 aufgeführten Bereiche eingesetzt werden;

entfällt

Änderungsantrag  240

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) die KI-Systeme bergen ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder nachteiliger Auswirkungen auf die Grundrechte, das im Hinblick auf die Schwere und die Wahrscheinlichkeit des Eintretens dem Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt.

entfällt

Änderungsantrag  241

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Der Kommission wird ferner die Befugnis übertragen, delegierte Rechtsakte gemäß Artikel 73 zu erlassen, um Anwendungsfälle von KI-Systemen mit hohem Risiko aus der Liste in Anhang III zu streichen, wenn die in Absatz 1 genannten Bedingungen nicht mehr gelten.

Änderungsantrag  242

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Bewertung für die Zwecke des Absatzes 1, ob ein KI-System ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder ein Risiko nachteiliger Auswirkungen auf die Grundrechte birgt, das dem Risiko der Schädigung oder Beeinträchtigung gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt, berücksichtigt die Kommission folgende Kriterien:

(2) Bei der Bewertung eines KI-Systems für die Zwecke der Absätze 1 und 1a berücksichtigt die Kommission folgende Kriterien:

Änderungsantrag  243

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) die allgemeinen Fähigkeiten und Funktionalitäten des KI-Systems unabhängig von seinem Verwendungszweck;

Änderungsantrag  244

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) die Art und Menge der vom KI-System verarbeiteten und verwendeten Daten;

Änderungsantrag  245

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe b b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bb) das Ausmaß, in dem das KI-System autonom handelt;

Änderungsantrag  246

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit geschädigt, die Sicherheit beeinträchtigt oder negative Auswirkungen auf die Grundrechte verursacht worden sind oder nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Behörden übermittelt werden, Anlass zu erheblichen Bedenken hinsichtlich des Eintretens solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen besteht;

c) das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit geschädigt, die Sicherheit beeinträchtigt oder negative Auswirkungen auf die Grundrechte, die Umwelt, die Demokratie und die Rechtsstaatlichkeit verursacht worden sind oder beispielsweise nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Aufsichtsbehörden, der Kommission, dem Amt für künstliche Intelligenz, dem Europäischen Datenschutzbeauftragten oder der Agentur der Europäischen Union für Grundrechte übermittelt werden, Anlass zu erheblichen Bedenken hinsichtlich der Wahrscheinlichkeit solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen besteht;

Änderungsantrag  247

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) das potenzielle Ausmaß solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, eine Vielzahl von Personen zu beeinträchtigen;

d) das potenzielle Ausmaß solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, eine Vielzahl von Personen zu beeinträchtigen oder eine bestimmte Gruppe von Personen unverhältnismäßig stark zu beeinträchtigen;

Änderungsantrag  248

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen von dem von einem KI-System hervorgebrachten Ergebnis abhängen, weil es insbesondere aus praktischen oder rechtlichen Gründen nach vernünftigem Ermessen unmöglich ist, sich diesem Ergebnis zu entziehen;

e) das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen von dem mithilfe eines KI-Systems hervorgebrachten Ergebnis abhängen und dieses Ergebnis für die zu treffende Maßnahme oder Entscheidung rein akzessorisch ist, weil es insbesondere aus praktischen oder rechtlichen Gründen nach vernünftigem Ermessen unmöglich ist, sich diesem Ergebnis zu entziehen;

Änderungsantrag  249

 

Vorschlag für eine Verordnung

Artikel 7– Absatz 2– Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) den möglichen Missbrauch und die böswillige Nutzung des KI-Systems und der ihm zugrunde liegenden Technologie;

Änderungsantrag  250

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen gegenüber dem Nutzer eines KI-Systems schutzbedürftig sind, insbesondere aufgrund eines Ungleichgewichts in Bezug auf Machtposition, Wissen, wirtschaftliche oder soziale Umstände oder Alter;

f) das Ausmaß, in dem ein Machtungleichgewicht besteht oder in dem potenziell geschädigte oder beeinträchtigte Personen gegenüber dem Nutzer eines KI-Systems schutzbedürftig sind, insbesondere aufgrund von Status, Autorität, Wissen, wirtschaftlichen oder sozialen Umständen oder Alter;

Änderungsantrag  251

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) das Ausmaß, in dem das mit einem KI-System hervorgebrachte Ergebnis leicht rückgängig zu machen ist, wobei Ergebnisse, die sich auf die Gesundheit oder Sicherheit von Personen auswirken, nicht als leicht rückgängig zu machen gelten;

g) das Ausmaß, in dem das mithilfe eines KI-Systems hervorgebrachte Ergebnis leicht rückgängig zu machen oder behebbar ist, wobei Ergebnisse, die sich negativ auf die Gesundheit, Sicherheit, die Grundrechte von Personen, die Umwelt oder auf Demokratie und Rechtsstaatlichkeit auswirken, nicht als leicht rückgängig zu machen gelten;

Änderungsantrag  252

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe g a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ga) das Ausmaß der Verfügbarkeit und des Einsatzes von wirksamen technischen Lösungen und Mechanismen für die Kontrolle, Zuverlässigkeit und Korrigierbarkeit des KI-Systems;

Änderungsantrag  253

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe g b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

gb) das Ausmaß und die Wahrscheinlichkeit, dass der Einsatz des KI-Systems für Einzelpersonen, Gruppen oder die Gesellschaft im Allgemeinen, einschließlich möglicher Verbesserungen der Produktsicherheit, nützlich ist;

Änderungsantrag  254

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe g c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

gc) das Ausmaß menschlicher Aufsicht und die Möglichkeit menschlichen Eingreifens, um eine Entscheidung oder Empfehlungen, die potenziell zu Schaden führen können, außer Kraft zu setzen;

Änderungsantrag  255

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe h

 

Vorschlag der Kommission

Geänderter Text

i) wirksame Abhilfemaßnahmen in Bezug auf die Risiken, die von einem KI-System ausgehen, mit Ausnahme von Schadenersatzansprüchen,

h) das Ausmaß, in dem bestehende Rechtsvorschriften der Union Folgendes vorsehen:

 

i) wirksame Abhilfemaßnahmen in Bezug auf die Schäden, die von einem KI-System verursacht wurden, mit Ausnahme von Ansprüchen im Falle direkter oder indirekter Schäden,

 

ii) wirksame Maßnahmen zur Verhinderung oder zur wesentlichen Verringerung dieser Risiken.

Änderungsantrag  256

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Bei der Bewertung eines KI-Systems für die Zwecke der Absätze 1 oder 1a konsultiert die Kommission das Amt für künstliche Intelligenz und gegebenenfalls Vertreter der Gruppen, auf die sich ein KI-System auswirkt, die Industrie, unabhängige Experten, die Sozialpartner und Organisationen der Zivilgesellschaft. Die Kommission führt in diesem Zusammenhang auch öffentliche Konsultationen durch und macht die Ergebnisse dieser Konsultationen und der endgültigen Bewertung öffentlich zugänglich.

Änderungsantrag  257

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2b) Das Amt für künstliche Intelligenz, die nationalen Aufsichtsbehörden oder das Europäische Parlament können die Kommission auffordern, die Risikokategorisierung eines KI-Systems gemäß den Absätzen 1 und 1a neu zu bewerten und neu einzustufen. Die Kommission begründet ihre Entscheidung und veröffentlicht die Begründung.

 

Änderungsantrag  258

 

Vorschlag für eine Verordnung

Artikel 8 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Bei der Erfüllung der in diesem Kapitel festgelegten Anforderung sind die gemäß Artikel 82b entwickelten Leitlinien, der allgemein anerkannte Stand der Technik, einschließlich der einschlägigen harmonisierten Normen und gemeinsamen Spezifikationen gemäß den Artikeln 40 und 41 oder der bereits in den Harmonisierungsrechtsvorschriften der Union festgelegten Normen und Spezifikationen, angemessen zu berücksichtigen.

Änderungsantrag  259

 

Vorschlag für eine Verordnung

Artikel 8 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Gewährleistung der Einhaltung dieser Anforderungen wird der Zweckbestimmung des Hochrisiko-KI-Systems und dem in Artikel 9 genannten Risikomanagementsystem Rechnung getragen.

(2) Bei der Gewährleistung der Einhaltung dieser Anforderungen wird der Zweckbestimmung des Hochrisiko-KI-Systems, den vernünftigerweise vorhersehbaren Fehlanwendungen und dem in Artikel 9 genannten Risikomanagementsystem Rechnung getragen.

Änderungsantrag  260

 

Vorschlag für eine Verordnung

Artikel 8 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Solange die Anforderungen von Titel III Kapitel 2 und 3 oder Titel VIII Kapitel 1, 2 und 3 für Hochrisiko-KI-Systeme durch die in Anhang II Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union abgedeckt sind, gelten die Anforderungen oder Verpflichtungen dieser Kapitel dieser Verordnung als erfüllt, sofern sie die KI-Komponente umfassen. Die Anforderungen von Titel III Kapitel 2 und 3 oder Titel VIII Kapitel 1, 2 und 3 für Hochrisiko-KI-Systeme, die nicht unter die in Anhang II Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union fallen, werden gegebenenfalls in diese Harmonisierungsrechtsvorschriften der Union aufgenommen. Die entsprechende Konformitätsbewertung wird im Rahmen der Verfahren durchgeführt, die in den in Anhang II Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union festgelegt sind.

Änderungsantrag  261

 

Vorschlag für eine Verordnung

Artikel 9– Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Für Hochrisiko-KI-Systeme wird ein Risikomanagementsystem eingerichtet, angewandt, dokumentiert und aufrechterhalten.

(1) Für Hochrisiko-KI-Systeme wird während des gesamten Lebenszyklus des KI-Systems ein Risikomanagementsystem eingerichtet, angewandt, dokumentiert und aufrechterhalten. Das Risikomanagementsystem kann in bereits bestehende Risikomanagementverfahren im Zusammenhang mit dem einschlägigen sektoralen Unionsrecht integriert werden oder Teil davon sein, sofern es die Anforderungen dieses Artikels erfüllt.

Änderungsantrag  262

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Das Risikomanagementsystem versteht sich als ein kontinuierlicher iterativer Prozess während des gesamten Lebenszyklus eines KI-Systems, der eine regelmäßige systematische Aktualisierung erfordert. Es umfasst folgende Schritte:

(2) Das Risikomanagementsystem versteht sich als ein kontinuierlicher iterativer Prozess während des gesamten Lebenszyklus eines KI-Systems, der eine regelmäßige Überprüfung und Aktualisierung des Risikomanagementprozesses erfordert, um seine kontinuierliche Wirksamkeit sowie eine Dokumentation aller wichtigen Entscheidungen und Maßnahmen, die gemäß diesem Artikel getroffen wurden, sicherzustellen. Es umfasst folgende Schritte:

Änderungsantrag  263

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Ermittlung und Analyse der bekannten und vorhersehbaren Risiken, die von jedem Hochrisiko-KI-System ausgehen;

a) Ermittlung, Abschätzung und Bewertung der bekannten und vernünftigerweise vorhersehbaren Risiken, die das Hochrisiko-KI-System für die Gesundheit oder Sicherheit natürlicher Personen, ihre Grundrechte, einschließlich des gleichen Zugangs und der Chancengleichheit, die Demokratie und die Rechtsstaatlichkeit oder die Umwelt verursachen kann, wenn das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird;

Änderungsantrag  264

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 2 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Abschätzung und Bewertung der Risiken, die entstehen können, wenn das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird;

entfällt

Änderungsantrag  265

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Bewertung anderer möglicherweise auftretender Risiken auf der Grundlage der Auswertung der Daten aus dem in Artikel 61 genannten System zur Beobachtung nach dem Inverkehrbringen;

c) Bewertung auftretender erheblicher Risiken, wie unter Buchstabe a beschrieben und ermittelt auf der Grundlage der Auswertung der Daten aus dem in Artikel 61 genannten System zur Beobachtung nach dem Inverkehrbringen;

Änderungsantrag  266

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 2 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) Ergreifung geeigneter Risikomanagementmaßnahmen gemäß den Bestimmungen der folgenden Absätze.

d) Ergreifung geeigneter und gezielter Risikomanagementmaßnahmen zur Bewältigung der gemäß den Buchstaben a und b dieses Absatzes ermittelten Risiken gemäß den Bestimmungen der folgenden Absätze.

Änderungsantrag  267

 

Vorschlag für eine Verordnung

Artikel 9– Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Bei den in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden die Auswirkungen und möglichen Wechselwirkungen, die sich aus der kombinierten Anwendung der Anforderungen dieses Kapitels 2 ergeben, gebührend berücksichtigt. Diese Maßnahmen tragen dem allgemein anerkannten Stand der Technik Rechnung, wie er auch in einschlägigen harmonisierten Normen oder gemeinsamen Spezifikationen zum Ausdruck kommt.

(3) Bei den in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden die Auswirkungen und möglichen Wechselwirkungen, die sich aus der kombinierten Anwendung der Anforderungen dieses Kapitels 2 ergeben, gebührend berücksichtigt, um die Risiken wirksam zu mindern und gleichzeitig eine angemessene und verhältnismäßige Umsetzung der Anforderungen sicherzustellen.

Änderungsantrag  268

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(4) Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass jedes mit einer bestimmten Gefahr verbundene Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme als vertretbar beurteilt werden kann, sofern das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird. Diese Restrisiken müssen den Nutzern mitgeteilt werden.

(4)Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass ein relevantes mit einer bestimmten Gefahr verbundenes Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme nach vernünftigem Ermessen als vertretbar beurteilt werden kann, sofern das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird. Diese Restrisiken und die begründeten Beurteilungen müssen den Betreibern mitgeteilt werden.

 

Bei der Festlegung der am besten geeigneten Risikomanagementmaßnahmen ist Folgendes sicherzustellen:

Änderungsantrag  269

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 – Unterabsatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) weitestmögliche Beseitigung oder Verringerung der Risiken durch eine geeignete Konzeption und Entwicklung,

a) soweit technisch machbar, eine Beseitigung oder Verringerung der identifizierten Risiken durch eine geeignete Konzeption und Entwicklung des Hochrisiko-KI-Systems, gegebenenfalls unter Einbeziehung von Experten und externen Interessenträgern,

Änderungsantrag  270

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 – Unterabsatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) gegebenenfalls Anwendung angemessener Minderungs- und Kontrollmaßnahmen im Hinblick auf nicht auszuschließende Risiken;

b) gegebenenfalls Anwendung angemessener Minderungs- und Kontrollmaßnahmen für nicht auszuschließende erhebliche Risiken;

Änderungsantrag  271

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 – Unterabsatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Bereitstellung angemessener Informationen gemäß Artikel 13, insbesondere bezüglich der in Absatz 2 Buchstabe b des vorliegenden Artikels genannten Risiken, und gegebenenfalls entsprechende Schulung der Nutzer.

c) Bereitstellung der erforderlichen Informationen gemäß Artikel 13 und gegebenenfalls entsprechende Schulung der Betreiber.

Änderungsantrag  272

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Bei der Beseitigung oder Verringerung der Risiken im Zusammenhang mit der Verwendung des Hochrisiko-KI-Systems werden die technischen Kenntnisse, die Erfahrungen und der Bildungsstand, die vom Nutzer erwarten werden können, sowie das Umfeld, in dem das System eingesetzt werden soll, gebührend berücksichtigt.

Bei der Beseitigung oder Verringerung der Risiken im Zusammenhang mit der Verwendung des Hochrisiko-KI-Systems berücksichtigen die Anbieter gebührend die technischen Kenntnisse, die Erfahrungen und den Bildungsstand, die der Betreiber möglicherweise benötigt, auch in Bezug auf den voraussichtlichen Nutzungskontext.

Änderungsantrag  273

 

Vorschlag für eine Verordnung

Artikel 9– Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Hochrisiko-KI-Systeme müssen getestet werden, um die am besten geeigneten Risikomanagementmaßnahmen zu ermitteln. Durch das Testen wird sichergestellt, dass Hochrisiko-KI-Systeme stets bestimmungsgemäß funktionieren und die Anforderungen dieses Kapitels erfüllen.

(5) Hochrisiko-KI-Systeme müssen getestet werden, um die am besten geeigneten und gezielten Risikomanagementmaßnahmen zu ermitteln und diese Maßnahmen in Bezug auf den potenziellen Nutzen und die beabsichtigten Ziele des Systems abzuwägen. Durch das Testen wird sichergestellt, dass Hochrisiko-KI-Systeme stets bestimmungsgemäß funktionieren und die Anforderungen dieses Kapitels erfüllen.

Änderungsantrag  274

 

Vorschlag für eine Verordnung

Artikel 9– Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Die Testverfahren müssen geeignet sein, die Zweckbestimmung des KI-Systems zu erfüllen, und brauchen nicht über das hierfür erforderliche Maß hinauszugehen.

(6) Die Testverfahren müssen geeignet sein, die Zweckbestimmung des KI-Systems zu erfüllen.

Änderungsantrag  275

 

Vorschlag für eine Verordnung

Artikel 9– Absatz 7

 

Vorschlag der Kommission

Geänderter Text

(7) Das Testen von Hochrisiko-KI-Systemen erfolgt zu jedem geeigneten Zeitpunkt während des gesamten Entwicklungsprozesses und in jedem Fall vor dem Inverkehrbringen oder der Inbetriebnahme. Das Testen erfolgt anhand vorab festgelegter Parameter und probabilistischer Schwellenwerte, die für die Zweckbestimmung des Hochrisiko-KI-Systems geeignet sind.

(7) Das Testen von Hochrisiko-KI-Systemen erfolgt in jedem Fall vor dem Inverkehrbringen oder der Inbetriebnahme. Das Testen erfolgt anhand vorab festgelegter Parameter und probabilistischer Schwellenwerte, die für die Zweckbestimmung und vernünftigerweise vorhersehbare Fehlanwendung des Hochrisiko-KI-Systems geeignet sind.

Änderungsantrag  276

 

Vorschlag für eine Verordnung

Artikel 9– Absatz 8

 

Vorschlag der Kommission

Geänderter Text

(8) Bei der Umsetzung des in den Absätzen 1 bis 7 beschriebenen Risikomanagementsystems ist insbesondere zu berücksichtigen, ob das Hochrisiko-KI-System wahrscheinlich für Kinder zugänglich ist oder Auswirkungen auf Kinder hat.

(8) Bei der Umsetzung des in den Absätzen 1 bis 7 beschriebenen Risikomanagementsystems berücksichtigen die Anbieter insbesondere, ob das Hochrisiko-KI-System wahrscheinlich negative Auswirkungen auf gefährdete Personengruppen oder Kinder hat.

Änderungsantrag  277

 

Vorschlag für eine Verordnung

Artikel 9– Absatz 9

 

Vorschlag der Kommission

Geänderter Text

(9) Bei Kreditinstituten, die unter die Richtlinie 2013/36/EU fallen, sind die in den Absätzen 1 bis 8 beschriebenen Aspekte Bestandteil der von diesen Instituten gemäß Artikel 74 der Richtlinie festgelegten Risikomanagementverfahren.

(9) Bei Anbietern und KI-Systemen, die bereits unter das Unionsrecht fallen, das ihnen die Einrichtung eines spezifischen Risikomanagements vorschreibt, einschließlich Kreditinstituten, die unter die Richtlinie 2013/36/EU fallen, sind die in den Absätzen 1 bis 8 beschriebenen Aspekte Bestandteil der durch dieses Unionsrecht festgelegten Risikomanagementverfahren oder werden mit diesen kombiniert.

Änderungsantrag  278

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen.

(1) Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen, soweit dies je nach Marktsegment oder Anwendungsbereich technisch machbar ist.

 

Techniken, die keine gekennzeichneten Eingabedaten erfordern, wie z. B. unüberwachtes Lernen und bestärkendes Lernen, werden auf der Grundlage von Datensätzen entwickelt, z. B. zum Testen und Überprüfen, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen.

Änderungsantrag  279

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Für Trainings-, Validierungs- und Testdatensätze gelten geeignete Data-Governance- und Datenverwaltungsverfahren. Diese Verfahren betreffen insbesondere

(2) Für Trainings-, Validierungs- und Testdatensätze gilt eine Daten-Governance, die dem Nutzungskontext und dem beabsichtigten Zweck des KI-Systems angemessen ist. Diese Maßnahmen betreffen insbesondere

Änderungsantrag  280

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) die Transparenz in Bezug auf den ursprünglichen Zweck der Datenerfassung;

Änderungsantrag  281

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) die Datenerfassung,

b) die Datenerfassungsprozesse,

Änderungsantrag  282

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) relevante Datenaufbereitungsvorgänge wie Kommentierung, Kennzeichnung, Bereinigung, Anreicherung und Aggregierung,

c) Datenaufbereitungsvorgänge wie Kommentierung, Kennzeichnung, Bereinigung, Aktualisierung, Anreicherung und Aggregierung,

Änderungsantrag  283

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) die Aufstellung relevanter Annahmen, insbesondere in Bezug auf die Informationen, die mit den Daten erfasst und dargestellt werden sollen,

d) die Aufstellung von Annahmen, insbesondere in Bezug auf die Informationen, die mit den Daten erfasst und dargestellt werden sollen,

Änderungsantrag  284

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) eine vorherige Bewertung der Verfügbarkeit, Menge und Eignung der benötigten Datensätze,

e) eine Bewertung der Verfügbarkeit, Menge und Eignung der benötigten Datensätze,

Änderungsantrag  285

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias);

f) eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias), die die Gesundheit und Sicherheit von Personen beeinträchtigen, sich negativ auf die Grundrechte auswirken oder zu einer nach dem Unionsrecht verbotenen Diskriminierung führen könnten, insbesondere wenn die Datenoutputs die Inputs für künftige Operationen beeinflussen („Feedback-Schleifen“), sowie geeignete Maßnahmen zur Erkennung, Verhinderung und Abschwächung möglicher Verzerrungen;

Änderungsantrag  286

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe f a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

fa) geeignete Maßnahmen zur Erkennung, Verhinderung und Abschwächung möglicher Verzerrungen;

Änderungsantrag  287

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) die Ermittlung möglicher Datenlücken oder Mängel und wie diese Lücken und Mängel behoben werden können.

g) die Ermittlung relevanter Datenlücken oder Mängel, die der Einhaltung dieser Verordnung entgegenstehen, und wie diese Lücken und Mängel behoben werden können;

Änderungsantrag  288

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Diese Merkmale der Datensätze können durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.

(3) Die Trainingsdatensätze und, falls verwendet, die Validierungs- und Testdatensätze, einschließlich der Kennzeichnungen, müssen relevant, hinreichend repräsentativ, angemessen auf Fehler überprüft und im Hinblick auf den beabsichtigten Zweck so vollständig wie möglich sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, für die das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll. Diese Merkmale der Datensätze müssen durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.

Änderungsantrag  289

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Trainings-, Validierungs- und Testdatensätze müssen, soweit dies für die Zweckbestimmung erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.

(4) Die Datensätze müssen, soweit dies für die Zweckbestimmung oder den vernünftigerweise vorhersehbaren Fehlgebrauch des KI-Systems erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.

Änderungsantrag  290

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Soweit dies für die Beobachtung, Erkennung und Korrektur von Verzerrungen im Zusammenhang mit Hochrisiko-KI-Systemen unbedingt erforderlich ist, dürfen die Anbieter solcher Systeme besondere Kategorien personenbezogener Daten gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 der Richtlinie (EU) 2016/680 und Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 verarbeiten, wobei sie angemessene Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen treffen müssen, wozu auch technische Beschränkungen einer Weiterverwendung und modernste Sicherheits- und Datenschutzmaßnahmen wie Pseudonymisierung oder Verschlüsselung gehören, wenn der verfolgte Zweck durch eine Anonymisierung erheblich beeinträchtigt würde.

(5) Soweit dies für die Erkennung und Korrektur von negativen Verzerrungen im Zusammenhang mit Hochrisiko-KI-Systemen unbedingt erforderlich ist, dürfen die Anbieter solcher Systeme in Ausnahmefällen besondere Kategorien personenbezogener Daten gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 der Richtlinie (EU) 2016/680 und Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 verarbeiten, wobei sie angemessene Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen treffen müssen, wozu auch technische Beschränkungen einer Weiterverwendung und modernste Sicherheits- und Datenschutzmaßnahmen gehören. Insbesondere müssen alle folgenden Bedingungen erfüllt sein, damit diese Verarbeitung stattfinden kann: a) die Erkennung und Korrektur von Verzerrungen kann durch die Verarbeitung künstlicher oder anonymisierter Daten nicht effektiv durchgeführt werden;

 

b) die Daten sind pseudonymisiert;

 

c) der Anbieter ergreift geeignete technische und organisatorische Maßnahmen, um sicherzustellen, dass die für die Zwecke dieses Absatzes verarbeiteten Daten gesichert, geschützt und angemessenen Sicherheitsvorkehrungen unterworfen sind und nur befugte Personen mit entsprechenden Vertraulichkeitsverpflichtungen Zugriff auf diese Daten haben;

 

d) die für die Zwecke dieses Absatzes verarbeiteten Daten dürfen nicht an andere Parteien weitergegeben, übertragen oder anderweitig abgerufen werden;

 

e) die für die Zwecke dieses Absatzes verarbeiteten Daten sind durch geeignete technische und organisatorische Maßnahmen geschützt und werden gelöscht, sobald die Verzerrung berichtigt wurde oder das Ende der Speicherfrist für die personenbezogenen Daten erreicht ist;

 

f) wirksame und angemessene Maßnahmen sind vorhanden, um die Verfügbarkeit, Sicherheit und Widerstandsfähigkeit der Verarbeitungssysteme und -dienste gegen technische oder physische Zwischenfälle sicherzustellen;

 

g) wirksame und angemessene Maßnahmen sind vorhanden, um die physische Sicherheit der Orte, an denen die Daten gespeichert und verarbeitet werden, die interne IT und die IT-Sicherheitssteuerung und -verwaltung sowie die Zertifizierung von Prozessen und Produkten sicherzustellen.

 

Anbieter, die sich auf diese Bestimmung berufen, erstellen eine Dokumentation, in der sie erläutern, warum die Verarbeitung besonderer Kategorien personenbezogener Daten notwendig war, um Verzerrungen aufzudecken und zu korrigieren.

Änderungsantrag  291

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) Kann der Anbieter den in diesem Artikel festgelegten Verpflichtungen nicht nachkommen, weil er keinen Zugang zu den Daten hat und sich die Daten ausschließlich im Besitz des Betreibers befinden, kann der Betreiber auf der Grundlage eines Vertrags für jeden Verstoß gegen diesen Artikel zur Verantwortung gezogen werden.

Änderungsantrag  292

 

Vorschlag für eine Verordnung

Artikel 11 – Absatz 1 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Die technische Dokumentation wird so erstellt, dass aus ihr der Nachweis hervorgeht, wie das Hochrisiko-KI-System die Anforderungen dieses Kapitels erfüllt, und dass den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt. Sie enthält zumindest die in Anhang IV genannten Angaben.

Die technische Dokumentation wird so erstellt, dass aus ihr der Nachweis hervorgeht, wie das Hochrisiko-KI-System die Anforderungen dieses Kapitels erfüllt, und dass den nationalen Aufsichtsbehörden und den notifizierten Stellen die Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt. Sie enthält zumindest die in Anhang IV genannten Angaben oder im Falle von KMU und Start-ups gleichwertige Unterlagen, die dieselben Ziele verfolgen, vorbehaltlich der Genehmigung durch die zuständige nationale Behörde.

Änderungsantrag  293

 

Vorschlag für eine Verordnung

Artikel 11 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Wird ein Hochrisiko-KI-System, das mit einem Produkt verbunden ist, das unter die in Anhang II Abschnitt A aufgeführten Rechtsakte fällt, in Verkehr gebracht oder in Betrieb genommen, so wird eine einzige technische Dokumentation erstellt, die alle in Anhang IV genannten Informationen sowie die nach diesen Rechtsakten erforderlichen Informationen enthält.

(2) Wird ein Hochrisiko-KI-System, das mit einem Produkt verbunden ist, das unter die in Anhang II Abschnitt A aufgeführten Rechtsakte fällt, in Verkehr gebracht oder in Betrieb genommen, so wird eine einzige technische Dokumentation erstellt, die alle in Absatz 1 genannten Informationen sowie die nach diesen Rechtsakten erforderlichen Informationen enthält.

Änderungsantrag  294

 

Vorschlag für eine Verordnung

Artikel 11 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Anbieter, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, pflegen die technische Dokumentation als Teil ihrer Dokumentation über die Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie.

Änderungsantrag  295

 

Vorschlag für eine Verordnung

Artikel 12 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden mit Funktionsmerkmalen konzipiert und entwickelt, die eine automatische Aufzeichnung von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. Diese Protokollierung muss anerkannten Normen oder gemeinsamen Spezifikationen entsprechen.

(1) Hochrisiko-KI-Systeme werden mit Funktionsmerkmalen konzipiert und entwickelt, die eine automatische Aufzeichnung von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. Diese Protokollierung muss dem Stand der Technik und den anerkannten Normen oder gemeinsamen Spezifikationen entsprechen.

Änderungsantrag  296

 

Vorschlag für eine Verordnung

Artikel 12 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Protokollierung gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus in einem der Zweckbestimmung des Systems angemessenen Maße rückverfolgbar ist.

(2) Um sicherzustellen, dass das Funktionieren des KI-Systems während seiner gesamten Lebensdauer in einem der Zweckbestimmung des Systems angemessenen Maße rückverfolgbar ist, müssen die Protokollierungsfunktionen die Überwachung der Vorgänge gemäß Artikel 29 Absatz 4 sowie die Überwachung nach dem Inverkehrbringen gemäß Artikel 61 erleichtern. Sie müssen insbesondere die Aufzeichnung von Ereignissen ermöglichen, die für die Identifizierung von Situationen relevant sind, die möglicherweise

 

a) dazu führen, dass das KI-System eine Gefahr im Sinne von Artikel 65 Absatz 1 darstellt, oder

 

b) zu einer wesentlichen Änderung des KI-Systems führen.

Änderungsantrag  297

 

Vorschlag für eine Verordnung

Artikel 12 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie über Protokollierungsfunktionen verfügen, mit denen die Aufzeichnung des Energieverbrauchs, die Messung oder Berechnung des Ressourcenverbrauchs und der Umweltauswirkungen des Hochrisiko-KI-Systems während aller Phasen des Lebenszyklus des Systems möglich ist.

Änderungsantrag  298

 

Vorschlag für eine Verordnung

Artikel 12 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Protokollierung ermöglicht insbesondere die Überwachung des Betriebs des Hochrisiko-KI-Systems im Hinblick auf das Auftreten von Situationen, die dazu führen können, dass das KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 birgt, oder die zu einer wesentlichen Änderung führen, und erleichtert so die Beobachtung nach dem Inverkehrbringen gemäß Artikel 61.

entfällt

Änderungsantrag  299

 

Vorschlag für eine Verordnung

Artikel 13 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Transparenz und Bereitstellung von Informationen für die Nutzer

Transparenz und Bereitstellung von Informationen

Änderungsantrag  300

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Nutzer die Ergebnisse des Systems angemessen interpretieren und verwenden können. Die Transparenz wird auf eine geeignete Art und in einem angemessenen Maß gewährleistet, damit die Nutzer und Anbieter ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Anbieter und Nutzer die Funktionsweise des Systems hinreichend verstehen können. Eine angemessene Transparenz wird entsprechend der Zweckbestimmung des KI-Systems gewährleistet, damit die Nutzer und Anbieter ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.

 

Transparenz bedeutet somit, dass zum Zeitpunkt des Inverkehrbringens des Hochrisiko-KI-Systems alle nach dem allgemein anerkannten Stand der Technik verfügbaren technischen Mittel eingesetzt werden, um sicherzustellen, dass die Ergebnisse des KI-Systems vom Anbieter und vom Nutzer interpretierbar sind. Der Nutzer muss in die Lage versetzt werden, das KI-System angemessen zu verstehen und zu nutzen, indem er allgemein weiß, wie das KI-System funktioniert und welche Daten es verarbeitet, sodass der Nutzer die vom KI-System getroffenen Entscheidungen der betroffenen Person gemäß Artikel 68 Buchstabe c erläutern kann.

Änderungsantrag  301

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Hochrisiko-KI-Systeme werden mit Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen versehen, die präzise, vollständige, korrekte und eindeutige Informationen in einer für die Nutzer relevanten, barrierefrei zugänglichen und verständlichen Form enthalten.

(2) Hochrisiko-KI-Systeme werden mit verständlichen Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise auf einem dauerhaften Datenträger mit Gebrauchsanweisungen versehen, die präzise, korrekte, eindeutige und möglichst vollständige Informationen, die den Betrieb und die Wartung des KI-Systems sowie die fundierte Entscheidungsfindung der Nutzer unterstützen, in einer für die Nutzer hinreichend relevanten, barrierefrei zugänglichen und verständlichen Form enthalten.

Änderungsantrag  302

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(3) Die in Absatz 2 genannten Informationen umfassen:

(3) Um die in Absatz 1 genannten Ergebnisse zu erzielen, umfassen die in Absatz 2 genannten Informationen:

Änderungsantrag  303

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) den Namen und die Kontaktangaben des Anbieters sowie gegebenenfalls seines Bevollmächtigten;

a) den Namen und die Kontaktangaben des Anbieters sowie gegebenenfalls seiner Bevollmächtigten;

Änderungsantrag  304

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) wenn es sich nicht um den Anbieter handelt, die Identität und die Kontaktdaten der Stelle, die die Konformitätsbewertung durchgeführt hat, und gegebenenfalls ihres Bevollmächtigten;

Änderungsantrag  305

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Einleitung

 

Vorschlag der Kommission

Geänderter Text

b) die Merkmale, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems, einschließlich

b) gegebenenfalls die Merkmale, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems, einschließlich

Änderungsantrag  306

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer ii

 

Vorschlag der Kommission

Geänderter Text

ii) des Maßes an Genauigkeit, Robustheit und Cybersicherheit gemäß Artikel 15, für das das Hochrisiko-KI-System getestet und validiert wurde und das zu erwarten ist, sowie alle bekannten und vorhersehbaren Umstände, die sich auf das erwartete Maß an Genauigkeit, Robustheit und Cybersicherheit auswirken können,

ii) des Maßes an Genauigkeit, Robustheit und Cybersicherheit gemäß Artikel 15, für das das Hochrisiko-KI-System getestet und validiert wurde und das zu erwarten ist, sowie alle eindeutig bekannten und vorhersehbaren Umstände, die sich auf das erwartete Maß an Genauigkeit, Robustheit und Cybersicherheit auswirken können,

Änderungsantrag  307

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer iii

 

Vorschlag der Kommission

Geänderter Text

iii) aller bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit oder die Grundrechte führen können,

iii) aller eindeutig bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit, die Grundrechte oder die Umwelt führen können, gegebenenfalls einschließlich anschaulicher Beispiele für solche Einschränkungen und für Szenarien, für die das System nicht verwendet werden sollte;

Änderungsantrag  308

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer iii a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiia) des Ausmaßes, in dem das KI-System die von ihm getroffenen Entscheidungen erklären kann;

Änderungsantrag  309

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer v

 

Vorschlag der Kommission

Geänderter Text

v) gegebenenfalls der Spezifikationen für die Eingabedaten oder sonstiger relevanter Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze unter Berücksichtigung der Zweckbestimmung des KI-Systems;

v) relevante Informationen über Benutzeraktionen, die die Systemleistung beeinflussen können, einschließlich Art oder Qualität der Eingabedaten oder sonstiger relevanter Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze unter Berücksichtigung der Zweckbestimmung des KI-Systems;

Änderungsantrag  310

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) die erwartete Lebensdauer des Hochrisiko-KI-Systems und alle erforderlichen Wartungs- und Pflegemaßnahmen zur Gewährleistung des ordnungsgemäßen Funktionierens dieses KI-Systems, auch in Bezug auf Software-Updates.

e) alle erforderlichen Wartungs- und Pflegemaßnahmen zur Gewährleistung des ordnungsgemäßen Funktionierens dieses KI-Systems, auch in Bezug auf Software-Updates, während seiner erwarteten Lebensdauer.

Änderungsantrag  311

 

Vorschlag für eine Verordnung

Artikel 13– Absatz 3– Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) eine Beschreibung der in das KI-System integrierten Mechanismen, die es den Nutzern ermöglicht, die Protokolle im Einklang mit Artikel 12 Absatz 1 ordnungsgemäß zu erfassen, zu speichern und auszuwerten.

Änderungsantrag  312

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe e b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

eb) Die Informationen müssen zumindest in der Sprache des Landes bereitgestellt werden, in dem das KI-System verwendet wird.

Änderungsantrag  313

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Um den in diesem Artikel festgelegten Verpflichtungen nachzukommen, sorgen die Anbieter und die Nutzer im Einklang mit Artikel 4b für ein ausreichendes Niveau an KI-Kompetenz.

Änderungsantrag  314

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie während der Dauer der Verwendung des KI-Systems – auch mit geeigneten Werkzeugen einer Mensch-Maschine-Schnittstelle – von natürlichen Personen wirksam beaufsichtigt werden können.

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie in einem angemessenen Verhältnis zu den Risiken, die mit diesen Systemen verbunden sind, – auch mit geeigneten Werkzeugen einer Mensch-Maschine-Schnittstelle – von natürlichen Personen wirksam beaufsichtigt werden. Natürliche Personen, die mit der Sicherstellung der menschlichen Aufsicht betraut sind, müssen über ein ausreichendes Maß an KI-Kenntnissen gemäß Artikel 4b sowie über die notwendige Unterstützung und Befugnis verfügen, um diese Funktion während der Dauer der Verwendung des KI-Systems auszuüben und um eine gründliche Untersuchung nach einem Vorfall zu ermöglichen.

Änderungsantrag  315

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit oder die Grundrechte, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen.

(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit, die Grundrechte oder die Umwelt, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen und wenn Entscheidungen, die ausschließlich auf der automatisierten Verarbeitung durch KI-Systeme beruhen, rechtliche oder anderweitig erhebliche Auswirkungen auf die Personen oder Personengruppen haben, bei denen das System eingesetzt werden soll.

Änderungsantrag  316

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 3 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(3) Die menschliche Aufsicht wird durch eine oder alle der folgenden Vorkehrungen gewährleistet:

(3) Die menschliche Aufsicht berücksichtigt die spezifischen Risiken, den Automatisierungsgrad und den Kontext des KI-Systems und wird durch eine oder alle der folgenden Arten von Vorkehrungen gewährleistet:

Änderungsantrag  317

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(4) Die in Absatz 3 genannten Maßnahmen müssen den Personen, denen die menschliche Aufsicht übertragen wurde, je nach den Umständen Folgendes ermöglichen:

(4) Für die Zwecke der Umsetzung der Absätze 1 bis 3 wird das Hochrisiko-KI-System dem Nutzer so zur Verfügung gestellt, dass natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, soweit dies den Umständen angemessen und verhältnismäßig ist, Folgendes ermöglicht wird:

Änderungsantrag  318

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) die Fähigkeiten und Grenzen des Hochrisiko-KI-Systems vollständig zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen, damit Anzeichen von Anomalien, Fehlfunktionen und unerwarteter Leistung so bald wie möglich erkannt und behoben werden können;

a) die relevanten Fähigkeiten und Grenzen des Hochrisiko-KI-Systems zu kennen und hinreichend zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen, damit Anzeichen von Anomalien, Fehlfunktionen und unerwarteter Leistung so bald wie möglich erkannt und behoben werden können;

Änderungsantrag  319

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen.

e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen, das es ermöglicht, das System in einem sicheren Zustand zum Stillstand zu bringen, es sei denn, der menschliche Eingriff erhöht die Risiken oder würde die Leistung unter Berücksichtigung des allgemein anerkannten Stands der Technik negativ beeinflussen.

Änderungsantrag  320

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 genannten Vorkehrungen so gestaltet sein, dass außerdem der Nutzer keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange dies nicht von mindestens zwei natürlichen Personen überprüft und bestätigt wurde.

(5) Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 genannten Vorkehrungen so gestaltet sein, dass außerdem der Nutzer keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange dies nicht von mindestens zwei natürlichen Personen, die die notwendige Kompetenz, Schulung und Befugnis besitzen, überprüft und bestätigt wurde.

Änderungsantrag  321

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie im Hinblick auf ihre Zweckbestimmung ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.

(1) Hochrisiko-KI-Systeme werden gemäß den Grundsätzen „Sicherheit durch technische Vorkehrungen“ und „Sicherheit durch entsprechende Grundeinstellungen“ konzipiert und entwickelt. Im Hinblick auf ihre Zweckbestimmung sollten sie ein angemessenes Maß an Genauigkeit, Robustheit, Sicherheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren. Die Erfüllung dieser Anforderungen muss mit der Umsetzung von Maßnahmen verbunden sein, die dem Stand der Technik und dem jeweiligen Marktsegment oder Anwendungsbereich entsprechen.

 

Änderungsantrag  322

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Um den technischen Aspekten der Bestimmung des angemessenen Grads an Genauigkeit und Robustheit gemäß Absatz 1 dieses Artikels Rechnung zu tragen, bringt das Amt für künstliche Intelligenz nationale Metrologie- und Benchmarking-Behörden zusammen und stellt unverbindliche Leitlinien zu dem Gegenstand von Artikel 56 Absatz 2 Buchstabe a bereit.

Änderungsantrag  323

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1b) Um aufkommende Probleme im Zusammenhang mit der Cybersicherheit im gesamten Binnenmarkt anzugehen, wird neben dem Europäischen Ausschuss für künstliche Intelligenz gemäß Artikel 56 Absatz 2 Buchstabe b auch die Agentur der Europäischen Union für Cybersicherheit (ENISA) einbezogen.

Änderungsantrag  324

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Genauigkeitsgrade und die relevanten Genauigkeitskennzahlen von Hochrisiko-KI-Systemen werden in der ihnen beigefügten Gebrauchsanweisung angegeben.

(2) Die Genauigkeitsgrade und die relevanten Genauigkeitskennzahlen von Hochrisiko-KI-Systemen werden in der ihnen beigefügten Gebrauchsanweisung angegeben. Die verwendete Sprache muss eindeutig sein und darf keine Missverständnisse oder irreführenden Aussagen enthalten.

Änderungsantrag  325

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 3 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Hochrisiko-KI-Systeme müssen widerstandsfähig gegenüber Fehlern, Störungen oder Unstimmigkeiten sein, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen auftreten können.

Es müssen technische und organisatorische Maßnahmen ergriffen werden, um sicherzustellen, dass Hochrisiko-KI-Systeme so widerstandsfähig wie möglich gegenüber Fehlern, Störungen oder Unstimmigkeiten sind, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen auftreten können.

Änderungsantrag  326

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 3 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Die Robustheit von Hochrisiko-KI-Systemen kann durch technische Redundanz erreicht werden, was auch Sicherungs- oder Störungssicherheitspläne umfassen kann.

Die Robustheit von Hochrisiko-KI-Systemen kann von dem jeweiligen Anbieter, erforderlichenfalls unter Mitwirkung des Nutzers, durch technische Redundanz erreicht werden, was auch Sicherungs- oder Störungssicherheitspläne umfassen kann.

Änderungsantrag  327

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 3 – Unterabsatz 3

 

Vorschlag der Kommission

Geänderter Text

Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass auf möglicherweise verzerrte Ergebnisse, die durch eine Verwendung vorheriger Ergebnisse als Eingabedaten für den künftigen Betrieb entstehen („Rückkopplungsschleifen“), angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.

Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass auf möglicherweise verzerrte Ergebnisse, die die Eingabedaten für den künftigen Betrieb beeinflussen („Rückkopplungsschleifen“), und böswillige Manipulation von Eingaben, die beim Lernen während des Betriebs verwendet werden, angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.

Änderungsantrag  328

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 4 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Hochrisiko-KI-Systeme müssen widerstandfähig gegen Versuche unbefugter Dritter sein, ihre Verwendung oder Leistung durch Ausnutzung von Systemschwachstellen zu verändern.

Hochrisiko-KI-Systeme müssen widerstandsfähig gegen Versuche unbefugter Dritter sein, ihre Verwendung, ihr Verhalten, ihre Ergebnisse oder ihre Leistung durch Ausnutzung von Systemschwachstellen zu verändern.

Änderungsantrag  329

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 4 – Unterabsatz 3

 

Vorschlag der Kommission

Geänderter Text

Die technischen Lösungen für den Umgang mit KI-spezifischen Schwachstellen umfassen gegebenenfalls Maßnahmen zur Verhütung und Kontrolle von Angriffen, mit denen versucht wird, den Trainingsdatensatz zu manipulieren („Datenvergiftung“), von Eingabedaten, die das Modell zu Fehlern verleiten sollen („feindliche Beispiele“), oder von Modellmängeln.

Die technischen Lösungen für den Umgang mit KI-spezifischen Schwachstellen umfassen gegebenenfalls Maßnahmen, um Angriffe, mit denen versucht wird, eine Manipulation des Trainingsdatensatzes („Datenvergiftung“) oder vortrainierter Komponenten, die beim Training verwendet werden („Modellvergiftung“), vorzunehmen, Eingabedaten, die das Modell zu Fehlern verleiten sollen („feindliche Beispiele“ oder „Modellvermeidung“), Angriffe auf vertrauliche Daten oder Modellmängel, die zu einer schädlichen Entscheidungsfindung führen könnten, zu verhüten, zu erkennen, darauf zu reagieren, sie zu beseitigen und zu kontrollieren.

Änderungsantrag  330

 

Vorschlag für eine Verordnung

Titel III – Kapitel 3 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

PFLICHTEN DER ANBIETER UND NUTZER VON HOCHRISIKO-KI-SYSTEMEN UND ANDERER BETEILIGTER

PFLICHTEN DER ANBIETER UND BETREIBER VON HOCHRISIKO-KI-SYSTEMEN UND ANDERER BETEILIGTER

Änderungsantrag  331

 

Vorschlag für eine Verordnung

Artikel 16 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Pflichten der Anbieter von Hochrisiko-KI-Systemen

Pflichten der Anbieter und Betreiber von Hochrisiko-KI-Systemen und anderer Beteiligter

Änderungsantrag  332

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) sicherstellen, dass ihre Hochrisiko-KI-Systeme die Anforderungen in Kapitel 2 dieses Titels erfüllen;

a) vor dem Inverkehrbringen oder der Inbetriebnahme ihrer KI-Systeme sicherstellen, dass ihre Hochrisiko-KI-Systeme die Anforderungen in Kapitel 2 dieses Titels erfüllen;

Änderungsantrag  333

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) ihren Namen, ihren eingetragenen Handelsnamen oder ihre eingetragene Handelsmarke und ihre Kontaktanschrift und Kontaktinformationen auf dem Hochrisiko-KI-System selbst oder, wenn dies nicht möglich ist, in der beigefügten Dokumentation angeben;

Änderungsantrag  334

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe a b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ab) sicherstellen, dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, auf das Risiko einer Automatisierungs- oder Bestätigungsverzerrung aufmerksam gemacht worden sind;

Änderungsantrag  335

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe a c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ac) die Spezifikationen für die Eingabedaten oder sonstige relevante Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze zur Verfügung stellen, einschließlich ihrer Einschränkungen und Annahmen, unter Berücksichtigung der Zweckbestimmung und der vorhersehbaren sowie vernünftigerweise vorhersehbaren Fehlanwendungen des KI-Systems;

Änderungsantrag  336

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) die technische Dokumentation des Hochrisiko-KI-Systems erstellen;

c) die in Artikel 11 genannte technische Dokumentation des Hochrisiko-KI-Systems erstellen und aufbewahren;

Änderungsantrag  337

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) die von ihren Hochrisiko-KI-Systemen automatisch erzeugten Protokolle aufbewahren, wenn dies ihrer Kontrolle unterliegt;

d) die von ihren Hochrisiko-KI-Systemen automatisch erzeugten Protokolle, die erforderlich sind, um die Einhaltung dieser Verordnung sicherzustellen und nachzuweisen, gemäß Artikel 20 aufbewahren, wenn dies ihrer Kontrolle unterliegt;

Änderungsantrag  338

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) sicherstellen, dass das Hochrisiko-KI-System dem betreffenden Konformitätsbewertungsverfahren unterzogen wird, bevor es in Verkehr gebracht oder in Betrieb genommen wird;

e) sicherstellen, dass das Hochrisiko-KI-System dem betreffenden Konformitätsbewertungsverfahren gemäß Artikel 43 unterzogen wird, bevor es in Verkehr gebracht oder in Betrieb genommen wird;

Änderungsantrag  339

 

Vorschlag für eine Verordnung

Artikel 16– Absatz 1– Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) eine EU-Konformitätserklärung gemäß Artikel 48 ausstellen;

Änderungsantrag  340

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe e b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

eb) die CE-Kennzeichnung an das Hochrisiko-KI-System anbringen, um Konformität mit dieser Verordnung gemäß Artikel 49 anzuzeigen;

Änderungsantrag  341

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) die erforderlichen Korrekturmaßnahmen ergreifen, wenn das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels nicht erfüllt;

g) die erforderlichen Korrekturmaßnahmen gemäß Artikel 21 ergreifen und diesbezügliche Informationen übermitteln;

Änderungsantrag  342

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe h

 

Vorschlag der Kommission

Geänderter Text

h) die zuständigen nationalen Behörden der Mitgliedstaaten, in denen sie das System bereitgestellt oder in Betrieb genommen haben, und gegebenenfalls die notifizierte Stelle über die Nichtkonformität und bereits ergriffene Korrekturmaßnahmen informieren;

entfällt

Änderungsantrag  343

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe i

 

Vorschlag der Kommission

Geänderter Text

i) die CE-Kennzeichnung an ihren Hochrisiko-KI-Systemen anbringen, um die Konformität mit dieser Verordnung gemäß Artikel 49 anzuzeigen;

entfällt

Änderungsantrag  344

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe j

 

Vorschlag der Kommission

Geänderter Text

j) auf Anfrage einer zuständigen nationalen Behörde nachweisen, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt.

j) auf begründeten Anfrage einer nationalen Aufsichtsbehörde nachweisen, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt.

Änderungsantrag  345

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe j a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ja) sicherstellen, dass das Hochrisiko-KI-System die Anforderungen an die Zugänglichkeit erfüllt.

Änderungsantrag  346

 

Vorschlag für eine Verordnung

Artikel 17 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Anbieter von Hochrisiko-KI-Systemen richten ein Qualitätsmanagementsystem ein, das die Einhaltung dieser Verordnung gewährleistet. Dieses System wird systematisch und ordnungsgemäß in Form schriftlicher Regeln, Verfahren und Anweisungen dokumentiert und umfasst mindestens folgende Aspekte:

(1) Anbieter von Hochrisiko-KI-Systemen verfügen über ein Qualitätsmanagementsystem, das die Einhaltung dieser Verordnung gewährleistet. Es wird systematisch und ordnungsgemäß in Form schriftlicher Regeln, Verfahren oder Anweisungen dokumentiert und kann in ein bestehendes Qualitätsmanagementsystem gemäß den sektoralen Rechtsakten der Union integriert werden. Es umfasst mindestens folgende Aspekte:

Änderungsantrag  347

 

Vorschlag für eine Verordnung

Artikel 17 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) ein Konzept zur Einhaltung der Regulierungsvorschriften, was die Einhaltung der Konformitätsbewertungsverfahren und der Verfahren für das Management von Änderungen an den Hochrisiko-KI-Systemen miteinschließt;

entfällt

Änderungsantrag  348

 

Vorschlag für eine Verordnung

Artikel 17 – Absatz 1 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) die technischen Spezifikationen und Normen, die anzuwenden sind, falls die einschlägigen harmonisierten Normen nicht vollständig angewandt werden, sowie die Mittel, mit denen gewährleistet werden soll, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt;

e) die technischen Spezifikationen und Normen, die anzuwenden sind, falls die einschlägigen harmonisierten Normen nicht vollständig angewandt werden oder sie nicht alle relevanten Anforderungen abdecken, sowie die Mittel, mit denen gewährleistet werden soll, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt;

Änderungsantrag  349

 

Vorschlag für eine Verordnung

Artikel 17 – Absatz 1 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) Systeme und Verfahren für das Datenmanagement, einschließlich Datenerfassung, Datenanalyse, Datenkennzeichnung, Datenspeicherung, Datenfilterung, Datenauswertung, Datenaggregation, Vorratsdatenspeicherung und sonstiger Vorgänge in Bezug auf die Daten, die im Vorfeld und für die Zwecke des Inverkehrbringens oder der Inbetriebnahme von Hochrisiko-KI-Systemen durchgeführt werden;

f) Systeme und Verfahren für das Datenmanagement, einschließlich Datengewinnung, Datenerfassung, Datenanalyse, Datenkennzeichnung, Datenspeicherung, Datenfilterung, Datenauswertung, Datenaggregation, Vorratsdatenspeicherung und sonstiger Vorgänge in Bezug auf die Daten, die im Vorfeld und für die Zwecke des Inverkehrbringens oder der Inbetriebnahme von Hochrisiko-KI-Systemen durchgeführt werden;

Änderungsantrag  350

 

Vorschlag für eine Verordnung

Artikel 17 – Absatz 1 – Buchstabe j

 

Vorschlag der Kommission

Geänderter Text

j) Kommunikation mit zuständigen nationalen Behörden, zuständigen Behörden, auch sektoralen Behörden, die den Zugang zu Daten gewähren oder erleichtern, sowie mit notifizierten Stellen, anderen Akteuren, Kunden oder sonstigen interessierten Kreisen;

j) Kommunikation mit relevanten zuständigen Behörden, auch sektoralen Behörden;

Änderungsantrag  351

 

Vorschlag für eine Verordnung

Artikel 17 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Umsetzung der in Absatz 1 genannten Aspekte erfolgt in einem angemessenen Verhältnis zur Größe der Organisation des Anbieters.

(2) Die Umsetzung der in Absatz 1 genannten Aspekte erfolgt in einem angemessenen Verhältnis zur Größe der Organisation des Anbieters. Die Anbieter müssen in jedem Fall den Grad der Strenge und das Schutzniveau einhalten, die erforderlich sind, um die Übereinstimmung ihrer KI-Systeme mit dieser Verordnung sicherzustellen.

Änderungsantrag  352

 

Vorschlag für eine Verordnung

Artikel 18 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Pflicht zur Erstellung der technischen Dokumentation

entfällt

Änderungsantrag  353

 

Vorschlag für eine Verordnung

Artikel 18 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Anbieter von Hochrisiko-KI-Systemen erstellen die in Artikel 11 genannte technische Dokumentation gemäß Anhang IV.

entfällt

Änderungsantrag  354

 

Vorschlag für eine Verordnung

Artikel 18 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Anbieter, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, pflegen die technische Dokumentation als Teil ihrer Dokumentation über die Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie.

entfällt

Änderungsantrag  355

 

Vorschlag für eine Verordnung

Artikel 19

 

Vorschlag der Kommission

Geänderter Text

Artikel 19

entfällt

Konformitätsbewertung

 

(1) Die Anbieter von Hochrisiko-KI-Systemen stellen sicher, dass ihre Systeme vor dem Inverkehrbringen oder der Inbetriebnahme dem betreffenden Konformitätsbewertungsverfahren gemäß Artikel 43 unterzogen werden. Wurde infolge dieser Konformitätsbewertung nachgewiesen, dass die KI-Systeme die Anforderungen in Kapitel 2 dieses Titels erfüllen, erstellen die Anbieter eine EU-Konformitätserklärung gemäß Artikel 48 und bringen die CE-Konformitätskennzeichnung gemäß Artikel 49 an.

 

(2) Bei den in Anhang III Nummer 5 Buchstabe b genannten Hochrisiko-KI-Systemen, die von Anbietern in Verkehr gebracht oder in Betrieb genommen werden, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, erfolgt die Konformitätsbewertung im Rahmen des in den Artikeln 97 bis 101 der Richtlinie genannten Verfahrens.

 

Änderungsantrag  356

 

Vorschlag für eine Verordnung

Artikel 20 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Anbieter von Hochrisiko-KI-Systemen bewahren die von ihren Hochrisiko-KI-Systemen automatisch erzeugten Protokolle auf, soweit diese Protokolle aufgrund einer vertraglichen Vereinbarung mit dem Nutzer oder auf gesetzlicher Grundlage ihrer Kontrolle unterliegen. Die Protokolle werden für einen Zeitraum aufbewahrt, der der Zweckbestimmung des Hochrisiko-KI-Systems und den geltenden rechtlichen Verpflichtungen nach Unionsrecht oder nationalem Recht angemessen ist.

(1) Nutzer von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle auf, soweit diese Protokolle ihrer Kontrolle unterliegen. Unbeschadet des geltenden Unionsrechts oder des nationalen Rechts werden die Protokolle mindestens 6 Monate lang aufbewahrt. Die Speicherfrist muss den Industriestandards entsprechen und der Zweckbestimmung des Hochrisiko-KI-Systems angemessen sein.

Änderungsantrag  357

 

Vorschlag für eine Verordnung

Artikel 21 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Anbieter von Hochrisiko-KI-Systemen, die der Auffassung sind oder Grund zu der Annahme haben, dass ein von ihnen in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System nicht dieser Verordnung entspricht, ergreifen unverzüglich die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems herzustellen oder es gegebenenfalls zurückzunehmen oder zurückzurufen. Sie setzen die Händler des betreffenden Hochrisiko-KI-Systems und gegebenenfalls den Bevollmächtigten und die Einführer davon in Kenntnis.

Anbieter von Hochrisiko-KI-Systemen, die der Auffassung sind oder Grund zu der Annahme haben, dass ein von ihnen in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System nicht dieser Verordnung entspricht, ergreifen unverzüglich die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems herzustellen oder es gegebenenfalls zurückzunehmen, zu deaktivieren oder zurückzurufen.

 

In den im Absatz 1 genannten Fällen informieren die Anbieter unverzüglich

 

a) die Vertreiber;

 

b) die Einführer;

 

c) die zuständigen nationalen Behörden der Mitgliedstaaten, in denen sie das KI-System zur Verfügung gestellt oder in Betrieb genommen haben; sowie

 

d) wenn möglich, den Betreiber.

Änderungsantrag  358

 

Vorschlag für eine Verordnung

Artikel 21 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die Anbieter informieren auch den Bevollmächtigten, falls ein solcher gemäß Artikel 25 benannt wurde, und die benannte Stelle, falls das Hochrisiko-KI-System einer Konformitätsbewertung durch Dritte gemäß Artikel 43 unterzogen werden musste. Gegebenenfalls untersuchen sie auch zusammen mit dem Betreiber die Ursachen.

Änderungsantrag  359

 

Vorschlag für eine Verordnung

Artikel 22 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 und ist dem Anbieter des Systems dieses Risiko bekannt, so informiert dieser Anbieter unverzüglich die zuständigen nationalen Behörden der Mitgliedstaaten, in denen er das System bereitgestellt hat, und gegebenenfalls die notifizierte Stelle, die eine Bescheinigung für das Hochrisiko-KI-System ausgestellt hat, und macht dabei ausführliche Angaben, insbesondere zur Nichtkonformität und zu bereits ergriffenen Korrekturmaßnahmen.

Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 und wird sich der Anbieter des Systems dieses Risikos bewusst, so informiert dieser Anbieter unverzüglich die zuständigen nationalen Aufsichtsbehörden der Mitgliedstaaten, in denen er das System bereitgestellt hat, und gegebenenfalls die notifizierte Stelle, die eine Bescheinigung für das Hochrisiko-KI-System ausgestellt hat, und macht dabei ausführliche Angaben, insbesondere zur Art der Nichtkonformität und zu bereits ergriffenen relevanten Korrekturmaßnahmen.

Änderungsantrag  360

 

Vorschlag für eine Verordnung

Artikel 22 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

In den im Absatz 1 genannten Fällen informieren die Anbieter eines Hochrisiko-KI-Systems unverzüglich

 

a) die Vertreiber;

 

b) die Einführer;

 

c) die zuständigen nationalen Behörden der Mitgliedstaaten, in denen sie das KI-System zur Verfügung gestellt oder in Betrieb genommen haben; sowie

 

d) wenn möglich, die Betreiber.

Änderungsantrag  361

 

Vorschlag für eine Verordnung

Artikel 22 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die Anbieter informieren auch den Bevollmächtigten, falls ein solcher gemäß Artikel 25 benannt wurde.

Änderungsantrag  362

 

Vorschlag für eine Verordnung

Artikel 23 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Zusammenarbeit mit den zuständigen Behörden

Zusammenarbeit mit den zuständigen Behörden, dem Amt für künstliche Intelligenz und der Kommission

Änderungsantrag  363

 

Vorschlag für eine Verordnung

Artikel 23 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Anbieter von Hochrisiko-KI-Systemen übermitteln einer zuständigen nationalen Behörde auf deren Verlangen alle Informationen und Unterlagen, die erforderlich sind, um die Konformität des Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen, in einer von dem betreffenden Mitgliedstaat festgelegten Amtssprache der Union. Auf begründetes Verlangen einer zuständigen nationalen Behörde gewähren die Anbieter dieser Behörde auch Zugang zu den von ihrem Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle aufgrund einer vertraglichen Vereinbarung mit dem Nutzer oder auf gesetzlicher Grundlage ihrer Kontrolle unterliegen.

Anbieter und gegebenenfalls Betreiber von Hochrisiko-KI-Systemen übermitteln einer zuständigen nationalen Behörde oder gegebenenfalls dem Amt für künstliche Intelligenz oder der Kommission auf deren begründetes Verlangen alle Informationen und Unterlagen, die erforderlich sind, um die Konformität des Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen, in einer von dem betreffenden Mitgliedstaat festgelegten Amtssprache der Union.

Änderungsantrag  364

 

Vorschlag für eine Verordnung

Artikel 23 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Auf begründetes Verlangen einer zuständigen nationalen Behörde oder gegebenenfalls der Kommission gewähren die Anbieter und gegebenenfalls die Betreiber der anfragenden zuständigen nationalen Behörde oder der Kommission auch Zugang zu den von dem Hochrisiko-KI-System automatisch erstellten Protokollen, soweit diese Protokolle ihrer Kontrolle unterliegen.

Änderungsantrag  365

 

Vorschlag für eine Verordnung

Artikel 23 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Alle Informationen und Unterlagen, in deren Besitz eine zuständige nationale Behörde oder die Kommission auf der Grundlage dieses Artikels gelangt, werden im Einklang mit den in Artikel 70 festgelegten Vertraulichkeitspflichten behandelt.

Änderungsantrag  366

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Anbieter, die außerhalb der Union niedergelassen sind, benennen vor der Bereitstellung ihrer Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten, wenn kein Einführer festgestellt werden kann.

(1) Anbieter, die außerhalb der Union niedergelassen sind, benennen vor der Bereitstellung ihrer Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten,.

Änderungsantrag  367

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Der Bevollmächtigte muss seinen Wohnsitz oder seine Niederlassung in einem der Mitgliedstaaten haben, in denen die Tätigkeiten nach Artikel 2 Absätze 1b und 1c ausgeübt werden.

Änderungsantrag  368

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1b) Der Anbieter stattet seinen Bevollmächtigten mit den erforderlichen Befugnissen und Ressourcen aus, damit er seine Aufgaben gemäß dieser Verordnung erfüllen kann.

Änderungsantrag  369

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Der Bevollmächtigte nimmt die Aufgaben wahr, die in seinem vom Anbieter erhaltenen Auftrag festgelegt sind. Der Auftrag ermächtigt den Bevollmächtigten zumindest zur Wahrnehmung folgender Aufgaben:

(2) Der Bevollmächtigte nimmt die Aufgaben wahr, die in seinem vom Anbieter erhaltenen Auftrag festgelegt sind. Den Marktüberwachungsbehörden wird auf Anfrage eine Kopie des Mandats in einer von der zuständigen nationalen Behörde festgelegten Amtssprache des Organs der Union zur Verfügung gestellt. Für die Zwecke dieser Verordnung ermächtigt der Auftrag den Bevollmächtigten zumindest zur Wahrnehmung folgender Aufgaben:

Änderungsantrag  370

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Bereithaltung eines Exemplars der EU-Konformitätserklärung und der technischen Dokumentation für die zuständigen nationalen Behörden und die in Artikel 63 Absatz 7 genannten nationalen Behörden;

a) sicherstellen, dass die EU-Konformitätserklärung und die technische Dokumentation erstellt wurden und dass ein angemessenes Konformitätsbewertungsverfahren vom Anbieter durchgeführt wurde;

Änderungsantrag  371

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 2 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) Bereithaltung einer Kopie der EU-Konformitätserklärung, der technischen Unterlagen und gegebenenfalls der von der benannten Stelle ausgestellten Bescheinigung für die zuständigen nationalen Behörden und die in Artikel 63 Absatz 7 genannten nationalen Behörden;

Änderungsantrag  372

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 2 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Übermittlung aller Informationen und Unterlagen, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen, an eine zuständige nationale Behörde auf deren begründetes Verlangen, einschließlich der Gewährung des Zugangs zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle aufgrund einer vertraglichen Vereinbarung mit dem Nutzer oder auf gesetzlicher Grundlage der Kontrolle des Anbieters unterliegen;

b) Übermittlung aller Informationen und Unterlagen, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen, an eine zuständige nationale Behörde auf deren begründetes Verlangen, einschließlich der Gewährung des Zugangs zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle der Kontrolle des Anbieters unterliegen;

Änderungsantrag  373

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Zusammenarbeit mit den zuständigen nationalen Behörden auf deren begründetes Verlangen bei allen Maßnahmen, die Letztere im Zusammenhang mit dem Hochrisiko-KI-System ergreifen.

c) Zusammenarbeit mit den nationalen Aufsichtsbehörden auf deren begründetes Verlangen bei allen Maßnahmen, die die Behörde ergreift, um die von dem Hochrisiko-KI-System ausgehenden Risiken zu verringern und abzumildern;

Änderungsantrag  374

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 2 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) gegebenenfalls die Einhaltung der Registrierungspflichten im Einklang mit Artikel 51 oder, falls die Registrierung vom Anbieter selbst vorgenommen wird, Sicherstellung der Richtigkeit der in Anhang VIII Nummer 3 genannten Angaben.

Änderungsantrag  375

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Der Bevollmächtigte wird beauftragt, sich neben oder anstelle des Anbieters insbesondere an die nationale Aufsichtsbehörde oder die zuständigen nationalen Behörden in allen Fragen zu wenden, die die Einhaltung dieser Verordnung betreffen.

Änderungsantrag  376

 

Vorschlag für eine Verordnung

Artikel 25 – Absatz 2 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2b) Der Bevollmächtigte beendet den Auftrag, wenn er der Auffassung ist oder Grund zu der Annahme hat, dass der Anbieter gegen seine Verpflichtungen aus dieser Verordnung verstößt. In diesem Fall unterrichtet er ferner unverzüglich die nationale Aufsichtsbehörde des Mitgliedstaats, in dem er niedergelassen ist, und gegebenenfalls die betreffende notifizierte Stelle über die Beendigung des Auftrags und deren Gründe.

Änderungsantrag  377

 

Vorschlag für eine Verordnung

Artikel 26 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Bevor sie ein Hochrisiko-KI-System in Verkehr bringen, stellen die Einführer solcher Systeme sicher, dass

(1) Bevor sie ein Hochrisiko-KI-System in Verkehr bringen, stellen die Einführer solcher Systeme sicher, dass die Systeme dieser Verordnung entsprechen, indem sie sicherstellen, dass

Änderungsantrag  378

 

Vorschlag für eine Verordnung

Artikel 26 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) der Anbieter des KI-Systems das betreffende Konformitätsbewertungsverfahren durchgeführt hat;

a) der Anbieter des KI-Systems das entsprechende Konformitätsbewertungsverfahren nach Artikel 43 durchgeführt hat;

Änderungsantrag  379

 

Vorschlag für eine Verordnung

Artikel 26 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) der Anbieter die technische Dokumentation gemäß Anhang IV erstellt hat;

b) der Anbieter die technische Dokumentation gemäß Artikel 11 und Anhang IV erstellt hat;

Änderungsantrag  380

 

Vorschlag für eine Verordnung

Artikel 26 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) gegebenenfalls der Anbieter einen bevollmächtigten Vertreter gemäß Artikel 25 Absatz 1 bestellt hat.

Änderungsantrag  381

 

Vorschlag für eine Verordnung

Artikel 26 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Ist ein Einführer der Auffassung oder hat er Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht dieser Verordnung entspricht, so bringt er dieses Hochrisiko-KI-System erst in Verkehr, nachdem die Konformität dieses Systems hergestellt worden ist. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1, so setzt der Einführer den Anbieter des KI-Systems und die Marktüberwachungsbehörden davon in Kenntnis.

(2) Ist ein Einführer der Auffassung oder hat er Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht dieser Verordnung entspricht oder gefälscht ist oder diesem gefälschte Unterlagen beigefügt sind, so bringt er dieses Hochrisiko-KI-System erst in Verkehr, nachdem die Konformität dieses Systems hergestellt worden ist. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1, so setzt der Einführer den Anbieter des KI-Systems und die Marktüberwachungsbehörden davon in Kenntnis.

Änderungsantrag  382

 

Vorschlag für eine Verordnung

Artikel 26 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Einführer geben ihren Namen, ihren eingetragenen Handelsnamen oder ihre eingetragene Handelsmarke und ihre Kontaktanschrift auf dem Hochrisiko-KI-System selbst oder, wenn dies nicht möglich ist, auf der Verpackung oder in der beigefügten Dokumentation an.

(3) Die Einführer geben ihren Namen, ihren eingetragenen Handelsnamen oder ihre eingetragene Handelsmarke und ihre Kontaktanschrift auf dem Hochrisiko-KI-System selbst und gegebenenfalls auf der Verpackung oder in der beigefügten Dokumentation an.

Änderungsantrag  383

 

Vorschlag für eine Verordnung

Artikel 26 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Die Einführer übermitteln den zuständigen nationalen Behörden auf deren begründetes Verlangen alle Informationen und Unterlagen zum Nachweis der Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels in einer Sprache, die für die betreffende zuständige nationale Behörde leicht verständlich ist, und gewähren ihr Zugang zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle aufgrund einer vertraglichen Vereinbarung mit dem Nutzer oder auf gesetzlicher Grundlage der Kontrolle des Anbieters unterliegen. Sie arbeiten außerdem mit diesen Behörden bei allen Maßnahmen zusammen, die eine zuständige nationale Behörde im Zusammenhang mit diesem System ergreift.

(5) Die Einführer übermitteln den zuständigen nationalen Behörden auf deren begründetes Verlangen alle Informationen und Unterlagen zum Nachweis der Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels in einer Sprache, die für sie leicht verständlich ist, und gewähren ihr Zugang zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle der Kontrolle des Anbieters gemäß Artikel 20 unterliegen.

Änderungsantrag  384

 

Vorschlag für eine Verordnung

Artikel 26 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Die Einführer arbeiten mit den zuständigen nationalen Behörden bei allen Maßnahmen zusammen, die diese Behörden ergreifen, um die von dem Hochrisiko-KI-System ausgehenden Risiken zu verringern und abzumildern.

Änderungsantrag  385

 

Vorschlag für eine Verordnung

Artikel 27 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Bevor Händler ein Hochrisiko-KI-System auf dem Markt bereitstellen, überprüfen sie, ob das Hochrisiko-KI-System mit der erforderlichen CE-Konformitätskennzeichnung versehen ist, ob ihm die erforderliche Dokumentation und Gebrauchsanweisung beigefügt sind und ob der Anbieter bzw. gegebenenfalls der Einführer des Systems die in dieser Verordnung festgelegten Pflichten erfüllt hat.

(1) Bevor Händler ein Hochrisiko-KI-System auf dem Markt bereitstellen, überprüfen sie, ob das Hochrisiko-KI-System mit der erforderlichen CE-Konformitätskennzeichnung versehen ist, ob ihm die erforderliche Dokumentation und Gebrauchsanweisung beigefügt sind und ob der Anbieter bzw. gegebenenfalls der Einführer des Systems seine in Artikel 16 und Artikel 26 Absatz 3 dieser Verordnung festgelegten Pflichten erfüllt hat.

Änderungsantrag  386

 

Vorschlag für eine Verordnung

Artikel 27 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Ist ein Händler der Auffassung oder hat er Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht den Anforderungen in Kapitel 2 dieses Titels entspricht, so stellt er das Hochrisiko-KI-System erst auf dem Markt bereit, nachdem die Konformität mit den Anforderungen hergestellt worden ist. Birgt das System zudem ein Risiko im Sinne des Artikels 65 Absatz 1, so setzt der Händler den Anbieter bzw. den Einführer des Systems davon in Kenntnis.

(2) Ist ein Händler der Auffassung oder hat er aufgrund von Informationen, die ihm zur Verfügung stehen, Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht den Anforderungen in Kapitel 2 dieses Titels entspricht, so stellt er das Hochrisiko-KI-System erst auf dem Markt bereit, nachdem die Konformität mit den Anforderungen hergestellt worden ist. Birgt das System zudem ein Risiko im Sinne des Artikels 65 Absatz 1, so setzt der Händler den Anbieter bzw. den Einführer des Systems und die betreffende zuständige nationale Behörde davon in Kenntnis.

Änderungsantrag  387

 

Vorschlag für eine Verordnung

Artikel 27 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Ein Händler, der der Auffassung ist oder Grund zu der Annahme hat, dass ein von ihm auf dem Markt bereitgestelltes Hochrisiko-KI-System nicht den Anforderungen in Kapitel 2 dieses Titels entspricht, ergreift die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems mit diesen Anforderungen herzustellen, es zurückzunehmen oder zurückzurufen, oder er stellt sicher, dass der Anbieter, der Einführer oder gegebenenfalls jeder relevante Akteur diese Korrekturmaßnahmen ergreift. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1, so informiert der Händler unverzüglich die zuständigen nationalen Behörden der Mitgliedstaaten, in denen er das System bereitgestellt hat, und macht dabei ausführliche Angaben, insbesondere zur Nichtkonformität und zu bereits ergriffenen Korrekturmaßnahmen.

(4) Ein Händler, der aufgrund von Informationen, die ihm zur Verfügung stehen, der Auffassung ist oder Grund zu der Annahme hat, dass ein von ihm auf dem Markt bereitgestelltes Hochrisiko-KI-System nicht den Anforderungen in Kapitel 2 dieses Titels entspricht, ergreift die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems mit diesen Anforderungen herzustellen, es zurückzunehmen oder zurückzurufen, oder er stellt sicher, dass der Anbieter, der Einführer oder gegebenenfalls jeder relevante Akteur diese Korrekturmaßnahmen ergreift. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1, so informiert der Händler unverzüglich den Anbieter bzw. den Einführer des Systems sowie die zuständigen nationalen Behörden der Mitgliedstaaten, in denen er das System bereitgestellt hat, und macht dabei ausführliche Angaben, insbesondere zur Nichtkonformität und zu bereits ergriffenen Korrekturmaßnahmen.

Änderungsantrag  388

 

Vorschlag für eine Verordnung

Artikel 27 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Auf begründetes Verlangen einer zuständigen nationalen Behörde übermitteln die Händler von Hochrisiko-KI-Systemen dieser Behörde alle Informationen und Unterlagen, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen. Die Händler arbeiten außerdem mit dieser zuständigen nationalen Behörde bei allen von dieser Behörde ergriffenen Maßnahmen zusammen.

(5) Auf begründetes Verlangen einer zuständigen nationalen Behörde übermitteln die Händler von Hochrisiko-KI-Systemen dieser Behörde im Einklang mit den Pflichten der Händler gemäß Absatz 1 alle sich in ihrem Besitz befindenden oder ihnen zur Verfügung stehenden Informationen und Unterlagen, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen.

Änderungsantrag  389

 

Vorschlag für eine Verordnung

Artikel 27 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Die Händler arbeiten mit den zuständigen nationalen Behörden bei allen Maßnahmen zusammen, die diese Behörden ergreifen, um die von dem Hochrisiko-KI-System ausgehenden Risiken zu verringern und abzumildern.

Änderungsantrag  390

 

Vorschlag für eine Verordnung

Artikel 28 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Pflichten der Händler, Einführer, Nutzer oder sonstiger Dritter

Verantwortlichkeiten entlang der KI-Wertschöpfungskette der Anbieter, Händler, Einführer, Betreiber oder anderer Drittparteien

Änderungsantrag  391

 

Vorschlag für eine Verordnung

Artikel 28 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) In den folgenden Fällen gelten Händler, Einführer, Nutzer oder sonstige Dritte als Anbieter für die Zwecke dieser Verordnung und unterliegen den Anbieterpflichten gemäß Artikel 16:

(1) In den folgenden Fällen gelten Händler, Einführer, Betreiber oder sonstige Dritte als Anbieter eines Hochrisiko-KI-Systems für die Zwecke dieser Verordnung und unterliegen den Anbieterpflichten gemäß Artikel 16:

Änderungsantrag  392

 

Vorschlag für eine Verordnung

Artikel 28 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) wenn sie ein Hochrisiko-KI-System unter ihrem Namen oder ihrer Marke in Verkehr bringen oder in Betrieb nehmen;

a) wenn sie ihren Namen oder ihr Markenzeichen auf ein Hochrisiko-KI-System setzen, das bereits in Verkehr gebracht oder in Betrieb genommen wurde;

Änderungsantrag  393

 

Vorschlag für eine Verordnung

Artikel 28 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) wenn sie die Zweckbestimmung eines bereits im Verkehr befindlichen oder in Betrieb genommenen Hochrisiko-KI-Systems verändern;

b) wenn sie eine wesentliche Änderung an einem Hochrisiko-KI-System vornehmen, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, und zwar so, dass es weiterhin ein Hochrisiko-KI-System im Sinne von Artikel 6 bleibt;

Änderungsantrag  394

 

Vorschlag für eine Verordnung

Artikel 28 – Absatz 1 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) wenn sie ein KI-System, einschließlich eines KI-Systems für allgemeine Zwecke, das nicht als Hochrisiko-KI-System eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so wesentlich verändern, dass das KI-System zu einem Hochrisiko-KI-System im Sinne von Artikel 6 wird

Änderungsantrag  395

 

Vorschlag für eine Verordnung

Artikel 28 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Unter den in Absatz 1 Buchstabe b oder c genannten Umständen gilt der Anbieter, der das Hochrisiko-KI-System ursprünglich in Verkehr gebracht oder in Betrieb genommen hatte, nicht mehr als Anbieter für die Zwecke dieser Verordnung.

(2) Unter den in Absatz 1 Buchstaben a bis ba genannten Umständen gilt der Anbieter, der das KI-System ursprünglich in Verkehr gebracht oder in Betrieb genommen hatte, nicht mehr als Anbieter dieses spezifischen KI-Systems für die Zwecke dieser Verordnung. Dieser ehemalige Anbieter stellt dem neuen Anbieter die technische Dokumentation und alle anderen relevanten und vernünftigerweise zu erwartenden Informationen und Fähigkeiten des KI-Systems, den technischen Zugang oder sonstige Unterstützung auf der Grundlage des allgemein anerkannten Stands der Technik zur Verfügung, die für die Erfüllung der in dieser Verordnung festgelegten Verpflichtungen erforderlich sind.

 

Dieser Absatz gilt auch für Anbieter von Basismodellen im Sinne von Artikel 3, wenn das Basismodell direkt in ein Hochrisiko-KI-System integriert ist.

Änderungsantrag  396

 

Vorschlag für eine Verordnung

Artikel 28 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Der Anbieter eines Hochrisiko-KI-Systems und der Dritte, der Werkzeuge, Dienste, Komponenten oder Verfahren bereitstellt, die in dem Hochrisiko-KI-System verwendet oder integriert werden, legen in einer schriftlichen Vereinbarung fest, welche Informationen, Fähigkeiten, technischen Zugang und/oder sonstige Unterstützung nach dem allgemein anerkannten Stand der Technik der Dritte bereitstellen muss, damit der Anbieter des Hochrisiko-KI-Systems die Verpflichtungen im Rahmen dieser Verordnung vollständig erfüllen kann.

 

Die Kommission entwickelt und empfiehlt unverbindliche Mustervertragsbedingungen zwischen Anbietern von Hochrisiko-KI-Systemen und Dritten, die Werkzeuge, Dienstleistungen, Komponenten oder Prozesse liefern, die in Hochrisiko-KI-Systemen verwendet oder integriert werden, um beide Parteien bei der Ausarbeitung und Aushandlung von Verträgen mit ausgewogenen vertraglichen Rechten und Pflichten zu unterstützen, die dem Kontrollniveau jeder Partei entsprechen. Bei der Ausarbeitung unverbindlicher Mustervertragsbedingungen berücksichtigt die Kommission mögliche vertragliche Anforderungen, die in bestimmten Sektoren oder Geschäftsfällen gelten. Die unverbindlichen Vertragsbedingungen werden auf der Website des Amts für künstliche Intelligenz veröffentlicht und sind dort kostenlos in einem leicht nutzbaren elektronischen Format verfügbar.

Änderungsantrag  397

 

Vorschlag für eine Verordnung

Artikel 28 – Absatz 2 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2b) Für die Zwecke dieses Artikels sind Geschäftsgeheimnisse zu wahren und werden nur offengelegt, wenn vorab alle besonderen Maßnahmen gemäß der Richtlinie (EU) 2016/943 getroffen worden sind, die erforderlich sind, um ihre Vertraulichkeit, insbesondere gegenüber Dritten, zu wahren. Bei Bedarf können geeignete technische und organisatorische Vorkehrungen getroffen werden, um geistige Eigentumsrechte oder Geschäftsgeheimnisse zu schützen.

Änderungsantrag  398

 

Vorschlag für eine Verordnung

Artikel 28 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 28a

 

Missbräuchliche Vertragsklauseln, die einem KMU oder einem Startup einseitig auferlegt werden

 

(1) Eine Vertragsklausel über die Lieferung von Werkzeugen, Dienstleistungen, Komponenten oder Verfahren, die in einem Hochrisiko-KI-System verwendet oder integriert werden, oder über die Abhilfemaßnahmen im Falle eines Verstoßes oder der Beendigung damit verbundener Verpflichtungen, die ein Unternehmen einem KMU oder einem Start-up einseitig auferlegt hat, ist für letzteres Unternehmen nicht bindend, wenn sie missbräuchlich ist.

 

(2) Eine Vertragsbedingung gilt nicht als missbräuchlich, wenn sie aus anwendbarem EU-Recht hervorgeht.

 

(3) Eine Vertragsklausel ist missbräuchlich, wenn sie so beschaffen ist, dass sie objektiv die Fähigkeit der Partei, der die Klausel einseitig auferlegt wurde, beeinträchtigt, ihre berechtigten geschäftlichen Interessen an den betreffenden Informationen zu schützen, oder wenn ihre Verwendung grob von der guten Geschäftspraxis bei der Lieferung von Werkzeugen, Dienstleistungen, Komponenten oder Verfahren, die in einem Hochrisiko-KI-System verwendet oder integriert werden, abweicht und gegen Treu und Glauben verstößt oder ein erhebliches Ungleichgewicht zwischen den Rechten und Pflichten der Vertragsparteien schafft. Eine Vertragsklausel ist auch dann missbräuchlich, wenn sie dazu führt, dass die in Artikel 71 genannten Vertragsstrafen oder die damit verbundenen Prozesskosten auf die Vertragsparteien verlagert werden, wie in Artikel 71 Absatz 8 beschrieben.

 

(4) Eine Vertragsklausel ist missbräuchlich im Sinne dieses Artikels, wenn sie Folgendes bezweckt oder bewirkt:

 

a) den Ausschluss oder die Beschränkung der Haftung der Partei, die die Klausel einseitig auferlegt hat, für vorsätzliche oder grob fahrlässige Handlungen;

 

b) den Ausschluss der Rechtsbehelfe, die der Partei, der die Klausel einseitig auferlegt wurde, bei Nichterfüllung von Vertragspflichten zur Verfügung stehen, oder den Ausschluss der Haftung der Partei, die die Klausel einseitig auferlegt hat, bei einer Verletzung solcher Pflichten;

 

c) das ausschließliche Recht der Partei, die die Klausel einseitig auferlegt hat, zu bestimmen, ob die gelieferten technischen Unterlagen und Informationen vertragsgemäß sind, oder eine Vertragsklausel auszulegen.

 

(5) Eine Vertragsklausel gilt im Sinne dieses Artikels als einseitig auferlegt, wenn sie von einer Vertragspartei eingebracht wird und die andere Vertragspartei ihren Inhalt trotz des Versuchs, hierüber zu verhandeln, nicht beeinflussen kann. Die Vertragspartei, die eine Vertragsklausel eingebracht hat, trägt die Beweislast dafür, dass diese Klausel nicht einseitig auferlegt wurde.

 

(6) Ist die missbräuchliche Vertragsklausel von den übrigen Bedingungen des Vertrags abtrennbar, so bleiben die übrigen Vertragsbedingungen bindend. Die Partei, die die beanstandete Klausel vorgelegt hat, kann sich nicht darauf berufen, dass es sich um eine missbräuchliche Klausel handelt.

 

(7) Dieser Artikel gilt für alle neuen Verträge nach dem ... [Bitte Datum des Inkrafttretens dieser Verordnung einfügen]. Die Unternehmen überprüfen bestehende vertragliche Verpflichtungen, die unter diese Verordnung fallen, bis zum Jahr ... [drei Jahre nach Inkrafttreten dieser Verordnung].

 

(8) Angesichts der Geschwindigkeit, in der Innovationen auf den Märkten auftreten, wird die Liste der missbräuchlichen Vertragsklauseln in Artikel 28 Absatz a regelmäßig von der Kommission überprüft und erforderlichenfalls entsprechend den neuen Geschäftspraktiken aktualisiert.

Änderungsantrag  399

 

Vorschlag für eine Verordnung

Artikel 28 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 28 b

 

Pflichten des Anbieters eines Basismodells

 

(1) Ein Anbieter eines Basismodells muss, bevor er es auf dem Markt bereitstellt oder in Betrieb nimmt, sicherstellen, dass es den in diesem Artikel festgelegten Anforderungen entspricht, unabhängig davon, ob es als eigenständiges Modell oder eingebettet in ein KI-System oder ein Produkt oder unter freien und Open-Source-Lizenzen als Dienstleistung sowie über andere Vertriebskanäle bereitgestellt wird.

 

(2) Für die Zwecke von Absatz 1 muss der Anbieter eines Basismodells

 

a) durch geeignete Planung, Erprobung und Analyse die Identifizierung, Verringerung und Abschwächung von vernünftigerweise vorhersehbaren Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt sowie Demokratie und Rechtsstaatlichkeit vor und während der Entwicklung mit geeigneten Methoden, z. B. unter Einbeziehung unabhängiger Experten, sowie die Dokumentation der verbleibenden nicht abwendbaren Risiken nach der Entwicklung nachweisen;

 

b) nur Datensätze verarbeiten und einbeziehen, die angemessenen Data-Governance-Maßnahmen für Basismodelle unterliegen, insbesondere Maßnahmen zur Prüfung der Eignung der Datenquellen und möglicher Verzerrungen und geeigneter Abhilfemaßnahmen;

 

c) das Basismodell so konzipieren und entwickeln, dass während seines gesamten Lebenszyklus ein angemessenes Niveau an Leistung, Vorhersagbarkeit, Interpretierbarkeit, Korrigierbarkeit, Sicherheit und Cybersicherheit erreicht wird, das mit Hilfe geeigneter Methoden wie der Modellevaluierung unter Einbeziehung unabhängiger Experten, dokumentierter Analysen und umfassender Tests während der Konzeption, des Entwurfs und der Entwicklung bewertet wird;

 

d) das Basismodell unter Verwendung der geltenden Normen zur Verringerung des Energieverbrauchs, des Ressourcenverbrauchs und des Abfalls sowie zur Steigerung der Energieeffizienz und der Gesamteffizienz des Systems entwerfen und entwickeln, unbeschadet des geltenden Unionsrechts und des nationalen Rechts. Diese Verpflichtung gilt nicht vor der Veröffentlichung der in Artikel 40 genannten Normen. Basismodelle müssen so konzipiert sein, dass der Energieverbrauch sowie der Verbrauch anderer Ressourcen und andere Umweltauswirkungen, die der Einsatz und die Nutzung der Systeme während ihres gesamten Lebenszyklus haben kann, gemessen und aufgezeichnet werden können;

 

e) eine umfassende technische Dokumentation und verständliche Gebrauchsanweisungen erstellen, damit die nachgeschalteten Anbieter ihren Verpflichtungen gemäß Artikel 16 und 28 Absatz 1 nachkommen können;

 

f) ein Qualitätsmanagementsystem einrichten, um die Einhaltung dieses Artikels sicherzustellen und zu dokumentieren, mit der Möglichkeit, bei der Erfüllung dieser Anforderung zu experimentieren;

 

g) dieses Basismodell gemäß den Anweisungen in Anhang VIII Punkt C in der in Artikel 60 genannten EU-Datenbank registrieren.

 

Bei der Erfüllung dieser Anforderungen ist der allgemein anerkannte Stand der Technik zu berücksichtigen, der auch in den einschlägigen harmonisierten Normen oder gemeinsamen Spezifikationen zum Ausdruck kommt, sowie die neuesten Bewertungs- und Messmethoden, die insbesondere in den in Artikel 58 Absatz a genannten Benchmarking-Leitlinien und Fähigkeiten zum Ausdruck kommen;

 

(3) Anbieter von Basismodellen halten die in Absatz 2 Buchstabe e genannten technischen Unterlagen während eines Zeitraums, der 10 Jahre nach dem Inverkehrbringen oder der Inbetriebnahme ihrer Basismodelle endet, für die zuständigen nationalen Behörden bereit.

 

(4) Anbieter von Basismodellen, die in KI-Systemen verwendet werden, die speziell dazu bestimmt sind, mit unterschiedlichem Grad an Autonomie Inhalte wie komplexe Texte, Bilder, Audio- oder Videodateien zu generieren („generative KI“), sowie Anbieter, die ein Basismodell in ein generatives KI-System integrieren, müssen zusätzlich

 

a) den in Artikel 52 Absatz 1 genannten Transparenzpflichten nachkommen;

 

b) das Basismodell so gestalten und gegebenenfalls weiterentwickeln, dass ein angemessener Schutz gegen die Erzeugung von Inhalten, die gegen das Unionsrecht verstoßen, nach dem allgemein anerkannten Stand der Technik und unbeschadet der Grundrechte, einschließlich des Rechts auf freie Meinungsäußerung, sichergestellt ist;

 

c) unbeschadet der Rechtsvorschriften der Union oder der Mitgliedstaaten oder der Union zum Urheberrecht eine hinreichend detaillierte Zusammenfassung der Verwendung von urheberrechtlich geschützten Ausbildungsdaten dokumentieren und öffentlich zugänglich machen.

 

Änderungsantrag  400

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Nutzer von Hochrisiko-KI-Systemen verwenden solche Systeme entsprechend der den Systemen beigefügten Gebrauchsanweisung und gemäß den Absätzen 2 und 5.

(1) Die Betreiber von Hochrisiko-KI-Systemen treffen geeignete technische und organisatorische Maßnahmen, um sicherzustellen, dass sie solche Systeme entsprechend der den Systemen beigefügten Gebrauchsanweisungen und gemäß den Absätzen 2 und 5 dieses Artikels verwenden.

 

Änderungsantrag  401

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) In dem Maße, in dem die Betreiber die Kontrolle über das Hochrisiko-KI-System ausüben, müssen sie

 

i) eine menschliche Aufsicht gemäß den in dieser Verordnung festgelegten Anforderungen sicherstellen;

 

ii) sicherstellen, dass die mit der menschlichen Aufsicht über die Hochrisiko-KI-Systeme betrauten natürlichen Personen kompetent, angemessen qualifiziert und geschult sind und über die erforderlichen Ressourcen verfügen, um die wirksame Überwachung des KI-Systems gemäß Artikel 14 sicherzustellen;

 

iii) sicherstellen, dass die einschlägigen und angemessenen Maßnahmen zur Robustheit und Cybersicherheit regelmäßig auf ihre Wirksamkeit hin überprüft und regelmäßig angepasst oder aktualisiert werden.

Änderungsantrag  402

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Pflichten nach Absatz 1 lassen sonstige Pflichten der Nutzer nach Unionsrecht oder nationalem Recht sowie das Ermessen der Nutzer bei der Organisation ihrer eigenen Ressourcen und Tätigkeiten zur Wahrnehmung der vom Anbieter angegebenen Maßnahmen der menschlichen Aufsicht unberührt.

(2) Die Pflichten nach Absatz 1 und 1a lassen sonstige Pflichten der Betreiber nach Unionsrecht oder nationalem Recht sowie das Ermessen der Betreiber bei der Organisation ihrer eigenen Ressourcen und Tätigkeiten zur Wahrnehmung der vom Anbieter angegebenen Maßnahmen der menschlichen Aufsicht unberührt.

Änderungsantrag  403

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Unbeschadet des Absatzes 1 und soweit die Eingabedaten seiner Kontrolle unterliegen, sorgen die Nutzer dafür, dass die Eingabedaten der Zweckbestimmung des Hochrisiko-KI-Systems entsprechen.

(3) Unbeschadet der Absätze 1 und 1a und soweit die Eingabedaten seiner Kontrolle unterliegen, sorgen die Betreiber dafür, dass die Eingabedaten der Zweckbestimmung des Hochrisiko-KI-Systems relevant und ausreichend repräsentativ sind.

Änderungsantrag  404

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 4 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(4) Die Nutzer überwachen den Betrieb des Hochrisiko-KI-Systems anhand der Gebrauchsanweisung. Haben sie Grund zu der Annahme, dass die Verwendung gemäß der Gebrauchsanweisung dazu führen kann, dass das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 birgt, so informieren sie den Anbieter oder Händler und setzen die Verwendung des Systems aus. Sie informieren den Anbieter oder Händler auch, wenn sie einen schwerwiegenden Vorfall oder eine Fehlfunktion im Sinne des Artikels 62 festgestellt haben, und unterbrechen die Verwendung des KI-Systems. Kann der Nutzer den Anbieter nicht erreichen, so gilt Artikel 62 entsprechend.

(4) Die Betreiber überwachen den Betrieb des Hochrisiko-KI-Systems anhand der Gebrauchsanweisung und informieren gegebenenfalls die Anbieter gemäß Artikel 61. Haben sie Grund zu der Annahme, dass die Verwendung gemäß der Gebrauchsanweisung dazu führen kann, dass das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 birgt, so informieren sie unverzüglich den Anbieter oder Händler und die zuständigen nationalen Aufsichtsbehörden und setzen die Verwendung des Systems aus. Sie informieren unverzüglich zunächst den Anbieter und dann den Einführer oder Händler sowie die zuständigen nationalen Aufsichtsbehörden, wenn sie einen schwerwiegenden Vorfall oder eine Fehlfunktion im Sinne des Artikels 62 festgestellt haben, und unterbrechen die Verwendung des KI-Systems. Kann der Betreiber den Anbieter nicht erreichen, so gilt Artikel 62 entsprechend.

Änderungsantrag  405

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 4 –Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Bei Nutzern, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, gilt die in Unterabsatz 1 vorgesehene Überwachungspflicht als erfüllt, wenn die Vorschriften über Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie eingehalten werden.

Bei Betreibern, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, gilt die in Unterabsatz 1 vorgesehene Überwachungspflicht als erfüllt, wenn die Vorschriften über Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie eingehalten werden.

 

Änderungsantrag  406

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 5 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(5) Nutzer von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle auf, soweit diese Protokolle ihrer Kontrolle unterliegen. Die Protokolle werden für einen Zeitraum aufbewahrt, der der Zweckbestimmung des Hochrisiko-KI-Systems und den geltenden rechtlichen Verpflichtungen nach Unionsrecht oder nationalem Recht angemessen ist.

(5) Betreiber von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle auf, soweit diese Protokolle ihrer Kontrolle unterliegen und erforderlich sind, um die Einhaltung dieser Verordnung sicherzustellen und nachzuweisen, um Ex-post-Prüfungen von vernünftigerweise vorhersehbaren Fehlfunktionen, Zwischenfällen oder Missbräuchen des Systems durchzuführen oder um das ordnungsgemäße Funktionieren des Systems während seines gesamten Lebenszyklus sicherzustellen und zu überwachen. Unbeschadet des geltenden Unionsrechts oder nationalen Rechts sind die Protokolle mindestens sechs Monate lang aufzubewahren. Die Speicherfrist muss den Industriestandards entsprechen und der Zweckbestimmung des Hochrisiko-KI-Systems angemessen sein.

Änderungsantrag  407

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 5 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Nutzer, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, bewahren die Protokolle als Teil ihrer Dokumentation über die Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie auf.

Betreiber, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, bewahren die Protokolle als Teil ihrer Dokumentation über die Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie auf.

Änderungsantrag  408

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Vor der Inbetriebnahme oder Nutzung eines Hochrisiko-KI-Systems am Arbeitsplatz konsultieren die Betreiber die Arbeitnehmervertreter, um eine Vereinbarung gemäß der Richtlinie 2002/14/EG zu erzielen, und informieren die betroffenen Arbeitnehmer darüber, dass sie dem System unterliegen werden.

Änderungsantrag  409

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 5 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5b) Betreiber von Hochrisiko-KI-Systemen, bei denen es sich um Behörden oder Organe, Einrichtungen, Ämter und Agenturen der Union oder Unternehmen im Sinne von Artikel 51 Absatz 1a Buchstabe b handelt, müssen den Registrierungspflichten gemäß Artikel 51 nachkommen.

Änderungsantrag  410

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Die Nutzer von Hochrisiko-KI-Systemen verwenden die gemäß Artikel 13 bereitgestellten Informationen, um gegebenenfalls ihrer Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 nachzukommen.

(6) Gegebenenfalls verwenden Betreiber von Hochrisiko-KI-Systemen die gemäß Artikel 13 bereitgestellten Informationen, um ihrer Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 nachzukommen, deren Zusammenfassung unter Berücksichtigung der spezifischen Nutzung und des spezifischen Kontexts, in dem das KI-System eingesetzt werden soll, veröffentlicht wird. Betreiber können bei der Erfüllung einiger der in diesem Artikel genannten Verpflichtungen teilweise auf diese Datenschutz-Folgenabschätzungen zurückgreifen, sofern die Datenschutz-Folgenabschätzungen diese Verpflichtungen erfüllen.

Änderungsantrag  411

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) Unbeschadet des Artikels 52 informieren die Betreiber der in Anhang III genannten Hochrisiko-KI-Systeme, die Entscheidungen in Bezug auf natürliche Personen treffen oder dabei helfen, Entscheidungen zu treffen, die natürlichen Personen darüber, dass sie dem Hochrisiko-KI-System unterliegen. Die betreffenden Informationen umfassen seine Zweckbestimmung und die Art der Entscheidungen, die davon getroffen werden. Der Betreiber informiert die natürliche Person auch über ihr Recht auf eine Erklärung gemäß Artikel 68c.

Änderungsantrag  412

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 6 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6b) Die Betreiber arbeiten mit den zuständigen nationalen Behörden bei allen Maßnahmen zusammen, die diese Behörden im Zusammenhang mit dem Hochrisikosystem zur Umsetzung dieser Verordnung ergreifen.

Änderungsantrag  413

 

Vorschlag für eine Verordnung

Artikel 29 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 29a

 

Folgenabschätzung im Hinblick auf die Grundrechte für Hochrisiko-KI-Systeme

 

Vor der Inbetriebnahme eines Hochrisiko-KI-Systems im Sinne von Artikel 6 Absatz 2, mit Ausnahme von KI-Systemen, die für den Einsatz im Bereich 2 des Anhangs III bestimmt sind, führen die Betreiber eine Bewertung der Auswirkungen des Systems in dem konkreten Kontext seiner Anwendung durch. Diese Bewertung muss mindestens Folgendes umfassen:

 

a) eine klare Darstellung des beabsichtigten Verwendungszwecks des Systems;

 

b) eine klare Darstellung des geplanten geografischen und zeitlichen Anwendungsbereichs des Systems;

 

c) die Kategorisierung der natürlichen Personen und Gruppen, die von der Verwendung des Systems betroffen sein könnten;

 

d) die Prüfung und Bestätigung, dass die Verwendung des Systems dem Unionsrecht und den nationalen Rechtsvorschriften sowie den Grundrechten entspricht;

 

e) die vernünftigerweise vorhersehbaren Auswirkungen der Inbetriebnahme des Hochrisiko-KI-Systems auf die Grundrechte;

 

f) spezifische Schadensrisiken, die sich auf marginalisierte Personen oder schutzbedürftige Gruppen auswirken könnte;

 

g) die vernünftigerweise vorhersehbaren negativen Auswirkungen der Nutzung des Systems auf die Umwelt;

 

h) einen ausführlichen Plan, wie das erkannte Schadensrisiko sowie die negativen Auswirkungen auf die Grundrechte gemindert werden sollen.

 

j) das Governance-System, das der Betreiber einsetzen wird, einschließlich menschlicher Überwachung, Bearbeitung von Beschwerden und Rechtsbehelfen.

 

(2) Wenn kein ausführlicher Plan zur Minderung der im Zuge der Bewertung nach Absatz 1 beschriebenen Risiken bestimmt werden kann, sieht der Betreiber von der Inbetriebnahme des Hochrisiko-KI-Systems ab und informiert unverzüglich den Anbieter und die nationale Aufsichtsbehörde. Im Einklang mit den Artikeln 65 und 67 berücksichtigen die Aufsichtsbehörden diese Informationen bei der Untersuchung von Systemen, die auf nationaler Ebene ein Risiko darstellen.

 

(3) Die in Absatz 1 beschriebene Verpflichtung gilt für die erste Verwendung eines Hochrisiko-KI-Systems. Der Betreiber kann in ähnlichen Fällen auf eine zuvor durchgeführte Folgenabschätzung für die allgemeinen Grundrechte oder eine bereits vorhandene Prüfung durch die Anbieter zurückgreifen. Ist der Betreiber während des Einsatzes des Hochrisiko-KI-Systems der Ansicht, dass die in Absatz 1 genannten Kriterien nicht mehr erfüllt sind, führt er eine neue Folgenabschätzung für die allgemeinen Grundrechte durch.

 

(4) Im Verlauf der Folgenabschätzung benachrichtigt der Betreiber, mit Ausnahme von KMU, die nationale Aufsichtsbehörde und die relevanten Interessenträger und bezieht so weit wie möglich Vertreter der Personen oder Personengruppen ein, die von dem Hochrisiko-KI-System gemäß Absatz 1 betroffen sein könnten, einschließlich, aber nicht beschränkt auf: Gleichstellungsstellen, Verbraucherschutzbehörden, Sozialpartner und Datenschutzbehörden, um Beiträge zur Folgenabschätzung zu erhalten. Der Betreiber räumt den Stellen eine Frist von sechs Wochen für ihre Antwort ein. KMU können die in diesem Absatz festgelegten Bestimmungen freiwillig anwenden.

 

In dem in Artikel 47 Absatz 1 genannten Fall können öffentliche Stellen von dieser Verpflichtung befreit werden.

 

(5) Ein Betreiber, bei dem es sich um eine Behörde oder ein Unternehmen im Sinne von Artikel 51 Absatz 1a Buchstabe b handelt, veröffentlicht eine Zusammenfassung der Ergebnisse der Folgenabschätzung als Teil der Registrierung der Nutzung gemäß seiner Verpflichtung nach Artikel 51 Absatz 2.

 

(6) Ist der Betreiber bereits verpflichtet, eine Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 durchzuführen, wird die Folgenabschätzung für die allgemeinen Grundrechte gemäß Absatz 1 in Verbindung mit der Datenschutz-Folgenabschätzung durchgeführt und als Zusatz veröffentlicht. Die Datenschutz-Folgenabschätzung wird als Nachtrag veröffentlicht.

Änderungsantrag  414

 

Vorschlag für eine Verordnung

Artikel 30 – Absatz 1

 

 

Vorschlag der Kommission

Geänderter Text

(1) Jeder Mitgliedstaat sorgt für die Benennung oder Schaffung einer notifizierenden Behörde, die für die Einrichtung und Durchführung der erforderlichen Verfahren zur Bewertung, Benennung und Notifizierung von Konformitätsbewertungsstellen und für deren Überwachung zuständig ist.

(1) Jeder Mitgliedstaat sorgt für die Benennung oder Schaffung einer notifizierenden Behörde, die für die Einrichtung und Durchführung der erforderlichen Verfahren zur Bewertung, Benennung und Notifizierung von Konformitätsbewertungsstellen und für deren Überwachung zuständig ist. Diese Verfahren werden in Zusammenarbeit zwischen den notifizierenden Behörden aller Mitgliedstaaten entwickelt.

Änderungsantrag  415

 

Vorschlag für eine Verordnung

Artikel 30 – Absatz 7

 

Vorschlag der Kommission

Geänderter Text

(7) Notifizierende Behörden verfügen über kompetente Mitarbeiter in ausreichender Zahl, sodass sie ihre Aufgaben ordnungsgemäß wahrnehmen können.

(7) Notifizierende Behörden verfügen über kompetente Mitarbeiter in ausreichender Zahl, sodass sie ihre Aufgaben ordnungsgemäß wahrnehmen können. Gegebenenfalls muss das zuständige Personal über die erforderliche Sachkenntnis, z. B. einen Abschluss in einem geeigneten Rechtsgebiet, für die Überwachung der in der Charta der Grundrechte der Europäischen Union verankerten Grundrechte verfügen.

Änderungsantrag  416

 

Vorschlag für eine Verordnung

Artikel 30 – Absatz 8

 

Vorschlag der Kommission

Geänderter Text

(8) Notifizierende Behörden gewährleisten, dass Konformitätsbewertungen in angemessener Art und Weise und ohne unnötige Belastungen für die Anbieter durchgeführt werden und dass die notifizierten Stellen bei ihren Tätigkeiten die Größe eines Unternehmens, die Branche, in der es tätig ist, seine Struktur und die Komplexität des betreffenden KI-Systems gebührend berücksichtigen.

(8) Notifizierende Behörden gewährleisten, dass Konformitätsbewertungen in angemessener und zeitnaher Art und Weise und ohne unnötige Belastungen für die Anbieter durchgeführt werden und dass die notifizierten Stellen bei ihren Tätigkeiten die Größe eines Unternehmens, die Branche, in der es tätig ist, seine Struktur und die Komplexität des betreffenden KI-Systems gebührend berücksichtigen. Besondere Aufmerksamkeit gilt der Minimierung des Verwaltungsaufwands und der Befolgungskosten für Kleinst- und Kleinunternehmen gemäß der Definition im Anhang der Empfehlung 2003/361/EG der Kommission.

Änderungsantrag  417

 

Vorschlag für eine Verordnung

Artikel 32 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die notifizierenden Behörden dürfen nur Konformitätsbewertungsstellen notifizieren, die die Anforderungen des Artikels 33 erfüllen.

(1) Die notifizierenden Behörden notifizieren nur Konformitätsbewertungsstellen, die die Anforderungen des Artikels 33 erfüllen.

Änderungsantrag  418

 

Vorschlag für eine Verordnung

Artikel 32 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die notifizierenden Behörden unterrichten die Kommission und die übrigen Mitgliedstaaten mithilfe des elektronischen Notifizierungsinstruments, das von der Kommission entwickelt und verwaltet wird.

(2) Die notifizierenden Behörden unterrichten die Kommission und die übrigen Mitgliedstaaten mithilfe des elektronischen Notifizierungsinstruments, das von der Kommission entwickelt und verwaltet wird, über jede Konformitätsbewertungsstelle gemäß Absatz 1.

Änderungsantrag  419

 

Vorschlag für eine Verordnung

Artikel 32 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Eine Notifizierung enthält vollständige Angaben zu den Konformitätsbewertungstätigkeiten, dem/den betreffenden Konformitätsbewertungsmodul(en) und den betreffenden Technologien der künstlichen Intelligenz.

(3) Eine Notifizierung gemäß Absatz 2 enthält vollständige Angaben zu den Konformitätsbewertungstätigkeiten, dem/den betreffenden Konformitätsbewertungsmodul(en) und den betreffenden Technologien der künstlichen Intelligenz sowie die betreffende Bescheinigung der Kompetenz.

Änderungsantrag  420

 

Vorschlag für eine Verordnung

Artikel 32 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die betreffende Konformitätsbewertungsstelle darf die Aufgaben einer notifizierten Stelle nur dann wahrnehmen, wenn weder die Kommission noch die übrigen Mitgliedstaaten innerhalb von einem Monat nach der Notifizierung Einwände erhoben haben.

(4) Die betreffende Konformitätsbewertungsstelle darf die Aufgaben einer notifizierten Stelle nur dann wahrnehmen, wenn weder die Kommission noch die übrigen Mitgliedstaaten innerhalb von zwei Wochen nach der Validierung der Notifizierung, sofern eine Akkreditierungsurkunde gemäß Artikel 31 Absatz 2 vorgelegt wird, oder innerhalb von zwei Monaten nach der Notifizierung, sofern beweiskräftige Unterlagen gemäß Artikel 31 Absatz 3 vorgelegt werden, Einwände erhoben haben.

Änderungsantrag  421

 

Vorschlag für eine Verordnung

Artikel 32 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Werden Einwände erhoben, konsultiert die Kommission unverzüglich die betreffenden Mitgliedstaaten und die Konformitätsbewertungsstelle. In Anbetracht dessen entscheidet die Kommission, ob die Genehmigung gerechtfertigt ist oder nicht. Die Kommission richtet ihren Beschluss an die betroffenen Mitgliedstaaten und an die zuständige Konformitätsbewertungsstelle.

Änderungsantrag  422

 

Vorschlag für eine Verordnung

Artikel 32 – Absatz 4 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4b) Die Mitgliedstaaten teilen der Kommission und den anderen Mitgliedstaaten die Konformitätsbewertungsstellen mit.

Änderungsantrag  423

 

Vorschlag für eine Verordnung

Artikel 33 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die notifizierten Stellen müssen die Anforderungen an die Organisation, das Qualitätsmanagement, die Ressourcenausstattung und die Verfahren erfüllen, die zur Wahrnehmung ihrer Aufgaben erforderlich sind.

(2) Die notifizierten Stellen müssen die Anforderungen an die Organisation, das Qualitätsmanagement, die Ressourcenausstattung und die Verfahren erfüllen, die zur Wahrnehmung ihrer Aufgaben erforderlich sind, sowie die Mindestanforderungen an die Cybersicherheit, die für öffentliche Verwaltungseinrichtungen gelten, die gemäß der Richtlinie (EU) 2022/2555 als Betreiber wesentlicher Dienste identifiziert wurden.

Änderungsantrag  424

 

Vorschlag für eine Verordnung

Artikel 33 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die notifizierten Stellen sind von dem Anbieter eines Hochrisiko-KI-Systems, zu dem sie Konformitätsbewertungstätigkeiten durchführen, unabhängig. Außerdem sind die notifizierten Stellen von allen anderen Akteuren, die ein wirtschaftliches Interesse an dem bewerteten Hochrisiko-KI-System haben, und von allen Wettbewerbern des Anbieters unabhängig.

(4) Die notifizierten Stellen sind von dem Anbieter eines Hochrisiko-KI-Systems, zu dem sie Konformitätsbewertungstätigkeiten durchführen, unabhängig. Außerdem sind die notifizierten Stellen von allen anderen Akteuren, die ein wirtschaftliches Interesse an dem bewerteten Hochrisiko-KI-System haben, und von allen Wettbewerbern des Anbieters unabhängig. Dies schließt die Verwendung von bewerteten KI-Systemen, die für die Tätigkeit der Konformitätsbewertungsstelle nötig sind, oder die Verwendung solcher Systeme zum persönlichen Gebrauch nicht aus.

Änderungsantrag  425

 

Vorschlag für eine Verordnung

Artikel 33 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Eine Konformitätsbewertung gemäß Absatz 1 wird von Mitarbeitern notifizierter Stellen durchgeführt, die in den 12 Monaten vor der Bewertung weder für den Anbieter eines Hochrisiko-KI-Systems noch für eine mit diesem Anbieter verbundene juristische Person eine andere Dienstleistung im Zusammenhang mit dem bewerteten Sachverhalt erbracht haben und sich verpflichtet haben, in den 12 Monaten nach Abschluss der Bewertung keine derartigen Dienstleistungen für sie zu erbringen.

Änderungsantrag  426

 

Vorschlag für eine Verordnung

Artikel 33 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Die notifizierten Stellen gewährleisten durch dokumentierte Verfahren, dass ihre Mitarbeiter, Ausschüsse, Zweigstellen, Unterauftragnehmer sowie alle zugeordneten Stellen oder Mitarbeiter externer Einrichtungen die Vertraulichkeit der Informationen, die bei der Durchführung der Konformitätsbewertungstätigkeiten in ihren Besitz gelangen, wahren, außer wenn die Offenlegung gesetzlich vorgeschrieben ist. Informationen, von denen Mitarbeiter der notifizierten Stellen bei der Durchführung ihrer Aufgaben gemäß dieser Verordnung Kenntnis erlangen, unterliegen der beruflichen Schweigepflicht, außer gegenüber den notifizierenden Behörden des Mitgliedstaats, in dem sie ihre Tätigkeiten ausüben.

(6) Die notifizierten Stellen gewährleisten durch dokumentierte Verfahren, dass ihre Mitarbeiter, Ausschüsse, Zweigstellen, Unterauftragnehmer sowie alle zugeordneten Stellen oder Mitarbeiter externer Einrichtungen die Vertraulichkeit der Informationen, die bei der Durchführung der Konformitätsbewertungstätigkeiten in ihren Besitz gelangen, wahren, außer wenn die Offenlegung gesetzlich vorgeschrieben ist. Informationen, von denen Mitarbeiter der notifizierten Stellen bei der Durchführung ihrer Aufgaben gemäß dieser Verordnung Kenntnis erlangen, unterliegen der beruflichen Schweigepflicht, außer gegenüber den notifizierenden Behörden des Mitgliedstaats, in dem sie ihre Tätigkeiten ausüben. Alle Informationen und Unterlagen, in deren Besitz eine notifizierte Stelle auf der Grundlage dieses Artikels gelangt, werden im Einklang mit den in Artikel 70 festgelegten Vertraulichkeitspflichten behandelt.

Änderungsantrag  427

 

Vorschlag für eine Verordnung

Artikel 34 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Arbeiten dürfen nur mit Zustimmung des Anbieters an einen Unterauftragnehmer vergeben oder einer Zweigstelle übertragen werden.

(3) Arbeiten dürfen nur mit Zustimmung des Anbieters an einen Unterauftragnehmer vergeben oder einer Zweigstelle übertragen werden. Die benannten Stellen machen eine Liste ihrer Zweigstellen öffentlich zugänglich.

Änderungsantrag  428

 

Vorschlag für eine Verordnung

Artikel 34 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die notifizierten Stellen halten für die notifizierende Behörde die einschlägigen Unterlagen über die Bewertung der Qualifikation des Unterauftragnehmers oder der Zweigstelle und die von ihnen gemäß dieser Verordnung ausgeführten Arbeiten bereit.

(4) Die notifizierten Stellen halten für die notifizierende Behörde die einschlägigen Unterlagen über die Überprüfung der Qualifikation des Unterauftragnehmers oder der Zweigstelle und die von ihnen gemäß dieser Verordnung ausgeführten Arbeiten bereit.

Änderungsantrag  429

 

Vorschlag für eine Verordnung

Artikel 35 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Kennnummern und Verzeichnisse der nach dieser Verordnung benannten notifizierten Stellen

Kennnummern und Verzeichnisse notifizierter Stellen

Änderungsantrag  430

 

Vorschlag für eine Verordnung

Artikel 36 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Falls eine notifizierende Behörde vermutet oder darüber unterrichtet wird, dass eine notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Verpflichtungen nicht nachkommt, so untersucht die den Sachverhalt unverzüglich und mit äußerster Sorgfalt. In diesem Zusammenhang teilt sie der betreffenden notifizierten Stelle die erhobenen Einwände mit und gibt ihr die Möglichkeit, dazu Stellung zu nehmen. Kommt die notifizierende Behörde zu dem Schluss, dass die überprüfte notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Verpflichtungen nicht nachkommt, schränkt sie die Notifizierung gegebenenfalls ein, setzt sie aus oder widerruft sie, wobei sie das Ausmaß der Nichterfüllung oder Pflichtverletzung berücksichtigt. Sie setzt zudem die Kommission und die übrigen Mitgliedstaaten unverzüglich davon in Kenntnis.

(1) Falls eine notifizierende Behörde vermutet oder darüber unterrichtet wird, dass eine notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Verpflichtungen nicht nachkommt, so untersucht die den Sachverhalt unverzüglich und mit äußerster Sorgfalt. In diesem Zusammenhang teilt sie der betreffenden notifizierten Stelle die erhobenen Einwände mit und gibt ihr die Möglichkeit, dazu Stellung zu nehmen. Kommt die notifizierende Behörde zu dem Schluss, dass die notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Verpflichtungen nicht nachkommt, schränkt sie die Notifizierung gegebenenfalls ein, setzt sie aus oder widerruft sie, wobei sie das Ausmaß der Nichterfüllung oder Pflichtverletzung berücksichtigt. Sie setzt zudem die Kommission und die übrigen Mitgliedstaaten unverzüglich davon in Kenntnis.

Änderungsantrag  431

 

Vorschlag für eine Verordnung

Artikel 36 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Wird die Notifizierung widerrufen, eingeschränkt oder ausgesetzt oder stellt die notifizierte Stelle ihre Tätigkeit ein, so ergreift die notifizierende Behörde geeignete Maßnahmen, um sicherzustellen, dass die Akten dieser notifizierten Stelle von einer anderen notifizierten Stelle übernommen bzw. für die zuständigen notifizierenden Behörden auf deren Verlangen bereitgehalten werden.

(2) Wird die Notifizierung widerrufen, eingeschränkt oder ausgesetzt oder stellt die notifizierte Stelle ihre Tätigkeit ein, so ergreift die notifizierende Behörde geeignete Maßnahmen, um sicherzustellen, dass die Akten dieser notifizierten Stelle von einer anderen notifizierten Stelle übernommen bzw. für die zuständigen notifizierenden Behörden und die Marktüberwachungsbehörde auf deren Verlangen bereitgehalten werden.

Änderungsantrag  432

 

Vorschlag für eine Verordnung

Artikel 37 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Kommission untersucht erforderlichenfalls alle Fälle, in denen begründete Zweifel daran bestehen, dass eine notifizierte Stelle die in Artikel 33 festgelegten Anforderungen erfüllt.

(1) Die Kommission untersucht erforderlichenfalls alle Fälle, in denen begründete Zweifel an der Kompetenz einer notifizierten Stelle oder daran bestehen, dass eine notifizierte Stelle die geltenden Anforderungen und Pflichten weiterhin erfüllt.

Änderungsantrag  433

 

Vorschlag für eine Verordnung

Artikel 37 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die notifizierende Behörde stellt der Kommission auf Anfrage alle Informationen über die Notifizierung der betreffenden notifizierten Stelle zur Verfügung.

(2) Die notifizierende Behörde stellt der Kommission auf Anfrage alle Informationen über die Notifizierung oder das Fortbestehen der betreffenden notifizierten Stelle zur Verfügung.

Änderungsantrag  434

 

Vorschlag für eine Verordnung

Artikel 37 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Kommission stellt sicher, dass alle im Verlauf ihrer Untersuchungen gemäß diesem Artikel erlangten vertraulichen Informationen vertraulich behandelt werden.

(3) Die Kommission stellt sicher, dass alle im Verlauf ihrer Untersuchungen gemäß diesem Artikel erlangten sensiblen Informationen vertraulich behandelt werden.

Änderungsantrag  435

 

Vorschlag für eine Verordnung

Artikel 37 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Stellt die Kommission fest, dass eine notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht oder nicht mehr erfüllt, so erlässt sie einen begründeten Beschluss, in dem der notifizierende Mitgliedstaat aufgefordert wird, die erforderlichen Abhilfemaßnahmen zu treffen, einschließlich eines Widerrufs der Notifizierung, sofern dies nötig ist. Dieser Durchführungsrechtsakt wird gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.

(4) Stellt die Kommission fest, dass eine notifizierte Stelle die Anforderungen für ihre Notifizierung nicht oder nicht mehr erfüllt, so setzt sie den notifizierenden Mitgliedstaat davon in Kenntnis und fordert ihn auf, die erforderlichen Abhilfemaßnahmen zu treffen, einschließlich eines Widerrufs der Notifizierung, sofern dies nötig ist. Versäumt es ein Mitgliedstaat, die erforderlichen Korrekturmaßnahmen zu ergreifen, kann die Kommission die Benennung mittels Durchführungsrechtsakt aussetzen, einschränken oder zurückziehen. Dieser Durchführungsrechtsakt wird gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.

Änderungsantrag  436

 

Vorschlag für eine Verordnung

Artikel 38 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Die Kommission sorgt für den Austausch von Wissen und bewährten Verfahren zwischen den nationalen Behörden der Mitgliedstaaten, die für die Notifizierungspolitik zuständig sind.

 

Änderungsantrag  437

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Bei Hochrisiko-KI-Systemen, die mit harmonisierten Normen oder Teilen davon, deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht wurden, übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels vermutet, soweit diese Anforderungen von den Normen abgedeckt sind.

Bei Hochrisiko-KI-Systemen und Basismodellen, die mit harmonisierten Normen oder Teilen davon, deren Fundstellen gemäß der Verordnung (EU) 1025/2012 im Amtsblatt der Europäischen Union veröffentlicht wurden, übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels oder in Artikel 28b vermutet, soweit diese Anforderungen von den Normen abgedeckt sind.

 

Änderungsantrag  438

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die Kommission erteilt gemäß Artikel 10 der Verordnung (EU) 1025/2012 spätestens [zwei Monate nach Inkrafttreten dieser Verordnung] Normungsaufträge für alle Anforderungen, die in der Verordnung gestellt werden. Bei der Ausarbeitung des Normungsauftrags konsultiert die Kommission das Amt für KI und das KI-Beratungsforum.

 

Änderungsantrag  439

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Bei der Erteilung eines Normungsauftrags an die europäischen Normungsorganisationen gibt die Kommission an, dass die Normen mit den in Anhang II aufgeführten sektoralen Rechtsvorschriften übereinstimmen müssen und sicherstellen sollen, dass die in der Union in Verkehr gebrachten oder in Betrieb genommenen KI-Systeme oder Basismodelle die in dieser Verordnung festgelegten einschlägigen Anforderungen erfüllen;

 

Änderungsantrag  440

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die am Normungsprozess beteiligten Akteure berücksichtigen die in Artikel 4 Buchstabe a dargelegten allgemeinen Grundsätze für vertrauenswürdige KI, bemühen sich um die Förderung von Investitionen und Innovationen im Bereich der KI sowie der Wettbewerbsfähigkeit und des Wachstums des Unionsmarktes und tragen zur Stärkung der weltweiten Zusammenarbeit bei der Normung und zur Berücksichtigung bestehender internationaler Normen im Bereich der KI bei, die mit den Werten, Grundrechten und Interessen der Union im Einklang stehen, und stellen eine ausgewogene Vertretung der Interessen und eine wirksame Beteiligung aller relevanten Interessenträger gemäß den Artikeln 5, 6 und 7 der Verordnung (EU) Nr. 1025/2012 sicher.

 

Änderungsantrag  441

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Gibt es keine harmonisierten Normen gemäß Artikel 40 oder ist die Kommission der Auffassung, dass die einschlägigen harmonisierten Normen unzureichend sind oder dass bestimmte Bedenken hinsichtlich der Sicherheit oder der Grundrechte ausgeräumt werden müssen, so kann die Kommission im Wege von Durchführungsrechtsakten gemeinsame Spezifikationen für die Anforderungen in Kapitel 2 dieses Titels festlegen. Diese Durchführungsrechtsakte werden gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.

entfällt

 

Änderungsantrag  442

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Die Kommission kann im Wege eines Durchführungsrechtsakts, der nach dem Prüfverfahren gemäß Artikel 74 Absatz 2 und nach Anhörung des Amtes für künstliche Intelligenz und des Beratungsforums für künstliche Intelligenz erlassen wird, gemeinsame Spezifikationen für die in Kapitel 2 dieses Titels oder in Artikel 28b genannten Anforderungen festlegen, wenn alle folgenden Bedingungen erfüllt sind:

 

a) Es gibt keinen Verweis auf bereits im Amtsblatt der Europäischen Union veröffentlichte harmonisierte Normen, die sich auf die wesentliche(n) Anforderung(en) beziehen, es sei denn, die betreffende harmonisierte Norm ist eine bestehende Norm, die überarbeitet werden muss;

 

b) Die Kommission hat eine oder mehrere europäische Normungsorganisationen mit der Erarbeitung einer harmonisierten Norm für die in Kapitel 2 genannte(n) grundlegende(n) Anforderung(en) beauftragt;

 

c) Der unter Buchstabe b) genannte Auftrag ist bisher von keiner europäischen Normungsorganisation angenommen worden; oder es kommt zu unangemessenen Verzögerungen bei der Festlegung einer geeigneten harmonisierten Norm; oder die bereitgestellte Norm erfüllt nicht die Anforderungen des einschlägigen Unionsrechts oder entspricht nicht der Forderung der Kommission.

 

Änderungsantrag  443

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1b) Wenn die Kommission der Auffassung ist, dass besondere Grundrechtsbelange berücksichtigt werden müssen, müssen die von der Kommission gemäß Absatz 1a angenommenen gemeinsamen Spezifikationen auch diese besonderen Grundrechtsbelange berücksichtigen.

 

Änderungsantrag  444

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 1 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1c) Die Kommission entwickelt gemeinsame Spezifikationen für die Methodik zur Erfüllung der Berichterstattungs- und Dokumentationspflicht über den Energie- und Ressourcenverbrauch während der Entwicklung, Trainings und Einführung des Hochrisiko-KI-Systems.

 

Änderungsantrag  445

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Ausarbeitung der in Absatz 1 genannten gemeinsamen Spezifikationen holt die Kommission die Stellungnahmen der einschlägigen Stellen oder Expertengruppen ein, die nach den jeweiligen sektorspezifischen Rechtsvorschriften der Union eingerichtet wurden.

(2) Bei der Ausarbeitung der in den Absätzen 1a und 1b genannten gemeinsamen Spezifikationen konsultiert die Kommission regelmäßig das Amt für KI und das Beratungsforum, die europäischen Normungsorganisationen und die im Rahmen des einschlägigen sektoralen Unionsrechts eingerichteten Gremien oder Expertengruppen sowie andere relevante Interessenträger. Die Kommission hat die in Artikel 40 Absatz 1c genannten Ziele zu erfüllen und ordnungsgemäß zu begründen, warum sie beschlossen hat, auf gemeinsame Spezifikationen zurückzugreifen.

 

Beabsichtigt die Kommission, gemeinsame Spezifikationen gemäß Absatz 1a des vorliegenden Artikels zu erlassen, so gibt sie auch klar an, welches spezifische Grundrechtsanliegen behandelt werden soll.

 

Bei der Annahme gemeinsamer Spezifikationen gemäß den Absätzen 1a und 1b des vorliegenden Artikels berücksichtigt die Kommission die Stellungnahme des in Artikel 56e Buchstabe b der vorliegenden Verordnung genannten Amts für KI. Beschließt die Kommission, der Stellungnahme des Amts für KI nicht zu folgen, so legt sie dem Amt für KI eine begründete Erklärung vor.

 

Änderungsantrag  446

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Bei Hochrisiko-KI-Systemen, die mit den in Absatz 1 genannten gemeinsamen Spezifikationen übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels vermutet, soweit diese Anforderungen von den gemeinsamen Spezifikationen abgedeckt sind.

(3) Bei Hochrisiko-KI-Systemen, die mit den in den Absätzen 1a und 1b genannten gemeinsamen Spezifikationen übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels vermutet, soweit diese Anforderungen von den gemeinsamen Spezifikationen abgedeckt sind.

 

Änderungsantrag  447

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Wird eine harmonisierte Norm von einer europäischen Normungsorganisation angenommen und der Kommission zur Veröffentlichung ihrer Fundstelle im Amtsblatt der Europäischen Union vorgeschlagen, so bewertet die Kommission die harmonisierte Norm gemäß der Verordnung (EU) Nr. 1025/2012. Wird die Fundstelle einer harmonisierten Norm im Amtsblatt der Europäischen Union veröffentlicht, so hebt die Kommission die in den Absätzen 1 und 1b genannten Rechtsakte oder Teile davon auf, die dieselben Anforderungen gemäß Kapitel 2 dieses Titels betreffen.

 

Änderungsantrag  448

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Wenn Anbieter die in Absatz 1 genannten gemeinsamen Spezifikationen nicht befolgen, müssen sie hinreichend nachweisen, dass sie technische Lösungen verwenden, die den gemeinsamen Spezifikationen zumindest gleichwertig sind.

(4) Wenn Anbieter von Hochrisiko-KI-Systemen die in Absatz 1 genannten gemeinsamen Spezifikationen nicht befolgen, müssen sie hinreichend nachweisen, dass sie technische Lösungen verwenden, die den in Kapitel II genannten Anforderungen zumindest gleichwertig sind;

 

Änderungsantrag  449

 

Vorschlag für eine Verordnung

Artikel 42 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Unter Berücksichtigung der Zweckbestimmung gilt für Hochrisiko-KI-Systeme, die mit Daten zu den besonderen geografischen, verhaltensbezogenen und funktionalen Rahmenbedingungen, unter denen sie bestimmungsgemäß verwendet werden sollen, trainiert und getestet wurden, die Vermutung, dass sie die in Artikel 10 Absatz 4 festgelegte Anforderung erfüllen.

(1) Unter Berücksichtigung der Zweckbestimmung gilt für Hochrisiko-KI-Systeme, die mit Daten zu den besonderen geografischen, verhaltensbezogenen, kontextuellen und funktionalen Rahmenbedingungen, unter denen sie bestimmungsgemäß verwendet werden sollen, trainiert und getestet wurden, die Vermutung, dass sie die in Artikel 10 Absatz 4 festgelegten jeweiligen Anforderungen erfüllen.

 

Änderungsantrag  450

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Hat ein Anbieter zum Nachweis, dass sein in Anhang III Nummer 1 aufgeführtes Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt, harmonisierte Normen gemäß Artikel 40 oder gegebenenfalls gemeinsame Spezifikationen gemäß Artikel 41 angewandt, so befolgt er eines der folgenden Verfahren:

(1) Hat ein Anbieter zum Nachweis, dass sein in Anhang III Nummer 1 aufgeführtes Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt, harmonisierte Normen gemäß Artikel 40 oder gegebenenfalls gemeinsame Spezifikationen gemäß Artikel 41 angewandt, so entscheidet er sich für eines der folgenden Verfahren;

 

Änderungsantrag  451

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

(a) das Konformitätsbewertungsverfahren auf der Grundlage einer internen Kontrolle gemäß Anhang VI;

(a) das Konformitätsbewertungsverfahren auf der Grundlage einer internen Kontrolle gemäß Anhang VI; oder

 

Änderungsantrag  452

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

(b) das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation unter Beteiligung einer notifizierten Stelle gemäß Anhang VII.

(b) das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation unter Beteiligung einer notifizierten Stelle gemäß Anhang VII;

 

Änderungsantrag  453

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 1 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Hat ein Anbieter zum Nachweis, dass sein Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt, die harmonisierten Normen gemäß Artikel 40 nicht oder nur teilweise angewandt oder gibt es solche harmonisierten Normen nicht und liegen keine gemeinsamen Spezifikationen gemäß Artikel 41 vor, so befolgt er das Konformitätsbewertungsverfahren gemäß Anhang VII.

Zum Nachweis, dass sein Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt, muss der Anbieter in den folgenden Fällen das Konformitätsbewertungsverfahren gemäß Anhang VII anwenden:

 

a) Wenn es keine harmonisierten Normen gemäß Artikel 40 gibt, deren Fundstelle im Amtsblatt der Europäischen Union veröffentlicht wurde und die alle relevanten Sicherheitsanforderungen für das KI-System abdecken, und keine gemeinsamen Spezifikationen gemäß Artikel 41 vorliegen;

 

b) Wenn die unter Buchstabe a genannten technischen Spezifikationen zwar vorliegen, der Anbieter sie aber nicht oder nur teilweise angewandt hat;

 

c) Wenn eine oder mehrere der unter Buchstabe a genannten technischen Spezifikationen mit einer Einschränkung und nur für den eingeschränkten Teil der Norm veröffentlicht wurden;

 

d) Wenn der Anbieter der Ansicht ist, dass Art, Gestaltung, Konstruktion oder Zweckbestimmung des KI-Systems eine Überprüfung durch Dritte erfordern, unabhängig von seinem Risikoniveau.

 

Änderungsantrag  454

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 1 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Für die Zwecke des Konformitätsbewertungsverfahrens gemäß Anhang VII kann der Anbieter eine der notifizierten Stellen auswählen. Soll das System jedoch von Strafverfolgungs-, Einwanderungs- oder Asylbehörden oder von Organen, Einrichtungen oder sonstigen Stellen der EU in Betrieb genommen werden, so übernimmt die in Artikel 63 Absatz 5 oder 6 genannte Marktüberwachungsbehörde die Funktion der notifizierten Stelle.

Für die Zwecke der Durchführung des Konformitätsbewertungsverfahrens gemäß Anhang VII kann der Anbieter eine der notifizierten Stellen auswählen. Soll das System jedoch von Strafverfolgungs-, Einwanderungs- oder Asylbehörden oder von Organen, Einrichtungen oder sonstigen Stellen der EU in Betrieb genommen werden, so übernimmt die in Artikel 63 Absatz 5 oder 6 genannte Marktüberwachungsbehörde die Funktion der notifizierten Stelle.

 

Änderungsantrag  455

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 4 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(4) Hochrisiko-KI-Systeme werden einem neuen Konformitätsbewertungsverfahren unterzogen, wenn sie wesentlich geändert werden, unabhängig davon, ob das geänderte System noch weiter in Verkehr gebracht oder vom derzeitigen Nutzer weitergenutzt werden soll.

(4) Hochrisiko-KI-Systeme, die bereits Gegenstand eines Konformitätsbewertungsverfahren gewesen sind, werden einem neuen Konformitätsbewertungsverfahren unterzogen, wenn sie wesentlich geändert werden, unabhängig davon, ob das geänderte System noch weiter in Verkehr gebracht oder vom derzeitigen Betreiber weitergenutzt werden soll.

 

Änderungsantrag  456

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Bei der Festsetzung der Gebühren für die Konformitätsbewertung durch Dritte nach diesem Artikel werden die besonderen Interessen und Bedürfnisse von KMU berücksichtigt, indem diese Gebühren proportional zu ihrer Größe und der Größe ihres Marktes gesenkt werden.

Änderungsantrag  457

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Aktualisierung der Anhänge VI und VII zu erlassen, um Elemente der Konformitätsbewertungsverfahren einzuführen, die angesichts des technischen Fortschritts erforderlich werden.

(5) Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Aktualisierung der Anhänge VI und VII zu erlassen, um Elemente der Konformitätsbewertungsverfahren einzuführen, die angesichts des technischen Fortschritts erforderlich werden. Bei der Vorbereitung solcher delegierten Rechtsakte konsultiert die Kommission das Amt für KI und die betroffenen Interessenträger;

Änderungsantrag  458

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen.

(6) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen. Bei der Vorbereitung solcher delegierten Rechtsakte konsultiert die Kommission das Amt für KI und die betroffenen Interessenträger;

Änderungsantrag  459

 

Vorschlag für eine Verordnung

Artikel 44 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die von notifizierten Stellen gemäß Anhang VII erteilten Bescheinigungen werden in einer Amtssprache der Union ausgefertigt, die der Mitgliedstaat, in dem die notifizierte Stelle niedergelassen ist, festlegt, oder in einer anderen Amtssprache der Union, mit der die notifizierte Stelle einverstanden ist.

(1) Die von notifizierten Stellen gemäß Anhang VII erteilten Bescheinigungen werden in einer oder mehreren Amtssprachen der Union ausgefertigt, die der Mitgliedstaat, in dem die notifizierte Stelle niedergelassen ist, festlegt, oder in einer oder mehreren anderen Amtssprachen der Union, mit der die notifizierte Stelle einverstanden ist.

Änderungsantrag  460

 

Vorschlag für eine Verordnung

Artikel 44 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Bescheinigungen sind für die darin genannte Dauer gültig, die maximal fünf Jahre beträgt. Auf Antrag des Anbieters kann die Gültigkeit einer Bescheinigung auf der Grundlage einer Neubewertung gemäß den geltenden Konformitätsbewertungsverfahren um weitere Zeiträume von jeweils höchstens fünf Jahren verlängert werden.

(2) Die Bescheinigungen sind für die darin genannte Dauer gültig, die maximal vier Jahre beträgt. Auf Antrag des Anbieters kann die Gültigkeit einer Bescheinigung auf der Grundlage einer Neubewertung gemäß den geltenden Konformitätsbewertungsverfahren um weitere Zeiträume von jeweils höchstens vier Jahren verlängert werden;

Änderungsantrag  461

 

Vorschlag für eine Verordnung

Artikel 44 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Stellt eine notifizierte Stelle fest, dass ein KI-System die Anforderungen in Kapitel 2 dieses Titels nicht mehr erfüllt, setzt sie die erteilte Bescheinigung aus oder widerruft diese oder schränkt sie ein, jeweils unter Berücksichtigung des Verhältnismäßigkeitsgrundsatzes, sofern die Einhaltung der Anforderungen nicht durch geeignete Korrekturmaßnahmen des Anbieters des Systems innerhalb einer von der notifizierten Stelle gesetzten angemessenen Frist wiederhergestellt wird. Die notifizierte Stelle begründet ihre Entscheidung.

(3) Stellt eine notifizierte Stelle fest, dass ein KI-System die Anforderungen in Kapitel 2 dieses Titels nicht mehr erfüllt, setzt sie die erteilte Bescheinigung aus oder widerruft diese oder schränkt sie ein, sofern die Einhaltung der Anforderungen nicht durch geeignete Korrekturmaßnahmen des Anbieters des Systems innerhalb einer von der notifizierten Stelle gesetzten angemessenen Frist wiederhergestellt wird. Die notifizierte Stelle begründet ihre Entscheidung.

Änderungsantrag  462

 

Vorschlag für eine Verordnung

Artikel 45 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Die Mitgliedstaaten stellen sicher, dass ein Einspruchsverfahren gegen die Entscheidungen der notifizierten Stelle für Beteiligte vorgesehen ist, die ein berechtigtes Interesse an einer solchen Entscheidung haben.

Die Mitgliedstaaten stellen sicher, dass ein Einspruchsverfahren gegen die Entscheidungen der notifizierten Stelle – auch in Bezug auf ausgestellte Konformitätsbescheinigungen – für Beteiligte vorgesehen ist, die ein berechtigtes Interesse an einer solchen Entscheidung haben.

Änderungsantrag  463

 

Vorschlag für eine Verordnung

Artikel 46 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Jede notifizierte Stelle übermittelt den anderen notifizierten Stellen, die ähnlichen Konformitätsbewertungstätigkeiten für die gleiche KI-Technik nachgehen, ihre einschlägigen Informationen über negative und auf Anfrage auch über positive Konformitätsbewertungsergebnisse.

(3) Eine notifizierte Stelle übermittelt anderen notifizierten Stellen, die ähnlichen Konformitätsbewertungstätigkeiten nachgehen, ihre einschlägigen Informationen über negative und auf Verlangen auch über positive Konformitätsbewertungsergebnisse.

Änderungsantrag  464

 

Vorschlag für eine Verordnung

Artikel 47 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Abweichend von Artikel 43 kann eine Marktüberwachungsbehörde das Inverkehrbringen oder die Inbetriebnahme bestimmter Hochrisiko-KI-Systeme im Hoheitsgebiet des betreffenden Mitgliedstaats aus außergewöhnlichen Gründen der öffentlichen Sicherheit, des Schutzes des Lebens und der Gesundheit von Personen, des Umweltschutzes und des Schutzes wichtiger Industrie- und Infrastrukturanlagen genehmigen. Diese Genehmigung wird auf die Dauer der erforderlichen Konformitätsbewertungsverfahren befristet und läuft mit dem Abschluss dieser Verfahren aus. Der Abschluss dieser Verfahren erfolgt unverzüglich.

(1) In Abweichung von Artikel 43 kann eine nationale Aufsichtsbehörde von einer Justizbehörde fordern, das Inverkehrbringen oder die Inbetriebnahme bestimmter Hochrisiko-KI-Systeme im Hoheitsgebiet des betreffenden Mitgliedstaats aus außergewöhnlichen Gründen des Schutzes des Lebens und der Gesundheit von Personen, des Umweltschutzes und des Schutzes kritischer Infrastruktur zu genehmigen. Diese Genehmigung wird auf die Dauer der erforderlichen Konformitätsbewertungsverfahren befristet und läuft mit dem Abschluss dieser Verfahren aus. Der Abschluss dieser Verfahren erfolgt unverzüglich;

Änderungsantrag  465

 

Vorschlag für eine Verordnung

Artikel 47 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die in Absatz 1 genannte Genehmigung wird nur erteilt, wenn die Marktüberwachungsbehörde zu dem Schluss gelangt, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt. Die Marktüberwachungsbehörde unterrichtet die Kommission und die anderen Mitgliedstaaten über alle von ihr gemäß Absatz 1 erteilten Genehmigungen.

(2) Die in Absatz 1 genannte Genehmigung wird nur erteilt, wenn die nationale Aufsichtsbehörde und die Justizbehörde zu dem Schluss gelangen, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt. Die nationale Aufsichtsbehörde unterrichtet die Kommission, das Amt für künstliche Intelligenz und die anderen Mitgliedstaaten über alle gestellten Anträge und alle diesbezüglichen von ihr gemäß Absatz 1 erteilten Genehmigungen;

Änderungsantrag  466

 

Vorschlag für eine Verordnung

Artikel 47 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Erhebt weder ein Mitgliedstaat noch die Kommission innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 2 genannten Mitteilung Einwände gegen die von einer Marktüberwachungsbehörde eines Mitgliedstaats gemäß Absatz 1 erteilte Genehmigung, so gilt diese Genehmigung als gerechtfertigt.

(3) Erhebt weder ein Mitgliedstaat noch die Kommission innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 2 genannten Mitteilung Einwände gegen den Antrag der nationalen Aufsichtsbehörde auf eine von einer nationalen Aufsichtsbehörde eines Mitgliedstaats gemäß Absatz 1 erteilte Genehmigung, so gilt diese Genehmigung als gerechtfertigt;

Änderungsantrag  467

 

Vorschlag für eine Verordnung

Artikel 47 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Erhebt innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 2 genannten Mitteilung ein Mitgliedstaat Einwände gegen eine von einer Marktüberwachungsbehörde eines anderen Mitgliedstaats erteilte Genehmigung oder ist die Kommission der Auffassung, dass die Genehmigung mit dem Unionsrecht unvereinbar ist oder dass die Schlussfolgerung der Mitgliedstaaten in Bezug auf die Konformität des in Absatz 2 genannten Systems unbegründet ist, so nimmt die Kommission unverzüglich Konsultationen mit dem betreffenden Mitgliedstaat auf; der bzw. die betroffenen Akteur(e) werden konsultiert und erhalten Gelegenheit, dazu Stellung zu nehmen. In Anbetracht dessen entscheidet die Kommission, ob die Genehmigung gerechtfertigt ist oder nicht. Die Kommission richtet ihren Beschluss an die betroffenen Mitgliedstaaten und an den/die betroffenen Akteur(e).

(4) Erhebt innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 2 genannten Mitteilung ein Mitgliedstaat Einwände gegen einen von einer nationalen Aufsichtsbehörde eines anderen Mitgliedstaats gestellten Antrag oder ist die Kommission der Auffassung, dass die Genehmigung mit dem Unionsrecht unvereinbar ist oder dass die Schlussfolgerung der Mitgliedstaaten in Bezug auf die Konformität des in Absatz 2 genannten Systems unbegründet ist, so nimmt die Kommission unverzüglich Konsultationen mit dem betreffenden Mitgliedstaat und dem Amt für künstliche Intelligenz auf; der bzw. die betroffenen Akteur(e) werden konsultiert und erhalten Gelegenheit, dazu Stellung zu nehmen. In Anbetracht dessen entscheidet die Kommission, ob die Genehmigung gerechtfertigt ist oder nicht. Die Kommission richtet ihren Beschluss an die betroffenen Mitgliedstaaten und an den/die betroffenen Akteur(e);

Änderungsantrag  468

 

Vorschlag für eine Verordnung

Artikel 47 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Wird die Genehmigung als ungerechtfertigt erachtet, so muss sie von der Marktüberwachungsbehörde des betreffenden Mitgliedstaats zurückgenommen werden.

(5) Wird die Genehmigung als ungerechtfertigt erachtet, so muss sie von der nationalen Aufsichtsbehörde des betreffenden Mitgliedstaats zurückgenommen werden;

Änderungsantrag  469

 

Vorschlag für eine Verordnung

Artikel 48 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Der Anbieter stellt für jedes KI-System eine schriftliche EU-Konformitätserklärung aus und hält sie für einen Zeitraum von 10 Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des KI-Systems für die zuständigen nationalen Behörden bereit. Aus der EU-Konformitätserklärung geht hervor, für welches KI-System sie ausgestellt wurde. Ein Exemplar der EU-Konformitätserklärung wird den zuständigen nationalen Behörden auf Anfrage zur Verfügung gestellt.

(1) Der Anbieter stellt für jedes Hochrisiko-KI-System eine schriftliche maschinenlesbare, physische oder elektronische EU-Konformitätserklärung aus und hält sie für einen Zeitraum von 10 Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems für die nationale Aufsichtsbehörde und die zuständigen nationalen Behörden bereit. Ein Exemplar der EU-Konformitätserklärung wird der nationalen Aufsichtsbehörde und den zuständigen nationalen Behörden auf Anfrage übermittelt;

Änderungsantrag  470

 

Vorschlag für eine Verordnung

Artikel 48 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die EU-Konformitätserklärung besagt, dass das betreffende Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt. Die EU-Konformitätserklärung enthält die in Anhang V aufgeführten Angaben und wird in eine oder mehrere Amtssprachen der Union übersetzt, die von dem/den Mitgliedstaat(en) vorgeschrieben wird/werden, in dem/denen das Hochrisiko-KI-System bereitgestellt wird.

(2) Die EU-Konformitätserklärung besagt, dass das betreffende Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt. Die EU-Konformitätserklärung enthält die in Anhang V aufgeführten Angaben und wird in eine oder mehrere Amtssprachen der Union übersetzt, die von dem/den Mitgliedstaat(en) vorgeschrieben wird/werden, in dem/denen das Hochrisiko-KI-System in Verkehr gebracht oder bereitgestellt wird;

Änderungsantrag  471

 

Vorschlag für eine Verordnung

Artikel 48 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Unterliegen Hochrisiko-KI-Systeme noch anderen Harmonisierungsrechtsvorschriften der Union, die ebenfalls eine EU-Konformitätserklärung vorschreiben, so wird eine einzige EU-Konformitätserklärung ausgestellt, die sich auf alle für das Hochrisiko-KI-System geltenden Rechtsvorschriften der Union bezieht. Die Erklärung enthält alle erforderlichen Angaben zur Feststellung der Harmonisierungsrechtsvorschriften der Union, auf die sich die Erklärung bezieht.

(3) Unterliegen Hochrisiko-KI-Systeme noch anderen Harmonisierungsrechtsvorschriften der Union, die ebenfalls eine EU-Konformitätserklärung vorschreiben, so kann eine einzige EU-Konformitätserklärung ausgestellt werden, die sich auf alle für das Hochrisiko-KI-System geltenden Rechtsvorschriften der Union bezieht. Die Erklärung enthält alle erforderlichen Angaben zur Feststellung der Harmonisierungsrechtsvorschriften der Union, auf die sich die Erklärung bezieht.

Änderungsantrag  472

 

Vorschlag für eine Verordnung

Artikel 48 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung des in Anhang V festgelegten Inhalts der EU-Konformitätserklärung zu erlassen, um Elemente einzuführen, die angesichts des technischen Fortschritts erforderlich werden.

(5) Nach Anhörung des Amts für künstliche Intelligenz wird der Kommission die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung des in Anhang V festgelegten Inhalts der EU-Konformitätserklärung zu erlassen, um Elemente einzuführen, die angesichts des technischen Fortschritts erforderlich werden;

Änderungsantrag  473

 

Vorschlag für eine Verordnung

Artikel 49 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die CE-Kennzeichnung wird gut sichtbar, leserlich und dauerhaft an Hochrisiko-KI-Systemen angebracht. Falls die Art des Hochrisiko-KI-Systems dies nicht zulässt oder nicht rechtfertigt, wird sie auf der Verpackung oder gegebenenfalls den Begleitunterlagen angebracht.

(1) Die physische CE-Kennzeichnung wird gut sichtbar, leserlich und dauerhaft an Hochrisiko-KI-Systemen angebracht, bevor das Hochrisiko-KI-System in Verkehr gebracht wird. Falls die Art des Hochrisiko-KI-Systems dies nicht zulässt oder nicht rechtfertigt, wird sie auf der Verpackung oder gegebenenfalls den Begleitunterlagen angebracht. Dahinter kann ein Piktogramm oder ein anderes Zeichen stehen, das eine besondere Verwendungsgefahr angibt;

Änderungsantrag  474

 

Vorschlag für eine Verordnung

Artikel 49 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Bei ausschließlich digitalen Hochrisiko-KI-Systemen wird eine digitale CE-Kennzeichnung nur dann verwendet, wenn sie über die Schnittstelle, von der aus auf das KI-System zugegriffen wird, oder über einen maschinenlesbaren Code oder andere elektronische Mittel angezeigt werden kann.

Änderungsantrag  475

 

Vorschlag für eine Verordnung

Artikel 49 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Wo erforderlich, wird der CE-Kennzeichnung die Kennnummer der für die Konformitätsbewertungsverfahren gemäß Artikel 43 zuständigen notifizierten Stelle hinzugefügt. Diese Kennnummer wird auch auf jeglichem Werbematerial angegeben, in dem darauf hingewiesen wird, dass das Hochrisiko-KI-System die Anforderungen für die CE-Kennzeichnung erfüllt.

(3) Wo erforderlich, wird der CE-Kennzeichnung die Kennnummer der für die Konformitätsbewertungsverfahren gemäß Artikel 43 zuständigen notifizierten Stelle hinzugefügt. Diese Kennnummer der notifizierten Stelle ist entweder von der Stelle selbst oder nach ihren Anweisungen durch den Bevollmächtigten des Anbieters anzubringen. Diese Kennnummer wird auch auf jeglichem Werbematerial angegeben, in dem darauf hingewiesen wird, dass das Hochrisiko-KI-System die Anforderungen für die CE-Kennzeichnung erfüllt;

Änderungsantrag  476

 

Vorschlag für eine Verordnung

Artikel 49 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Falls Hochrisiko-KI-Systeme ferner unter andere Rechtsvorschriften der Union fallen, in denen die CE-Kennzeichnung auch vorgesehen ist, bedeutet die CE-Kennzeichnung, dass das Hochrisiko-KI-System auch die Anforderungen dieser anderen Rechtsvorschriften erfüllt.

Änderungsantrag  477

 

Vorschlag für eine Verordnung

Artikel 50 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

Der Anbieter hält für einen Zeitraum von zehn Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems folgende Unterlagen für die zuständigen nationalen Behörden bereit:

Der Anbieter hält für einen Zeitraum von zehn Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems folgende Unterlagen für die nationale Aufsichtsbehörde und die zuständigen nationalen Behörden bereit:

Änderungsantrag  478

 

Vorschlag für eine Verordnung

Artikel 51 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Vor dem Inverkehrbringen oder der Inbetriebnahme eines in Artikel 6 Absatz 2 genannten Hochrisiko-KI-Systems registriert der Anbieter oder gegebenenfalls sein Bevollmächtigter dieses System in der in Artikel 60 genannten EU-Datenbank.

Vor dem Inverkehrbringen oder der Inbetriebnahme eines in Artikel 6 Absatz 2 genannten Hochrisiko-KI-Systems registriert der Anbieter oder gegebenenfalls sein Bevollmächtigter dieses System gemäß Artikel 60 Absatz 2 in der in Artikel 60 genannten EU-Datenbank;

Änderungsantrag  479

 

Vorschlag für eine Verordnung

Artikel 51 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Vor der Inbetriebnahme oder der Nutzung eines Hochrisiko-KI-Systems gemäß Artikel 6 Absatz 2 registrieren die folgenden Kategorien von Betreibern die Nutzung dieses KI-Systems in der in Artikel 60 genannten EU-Datenbank:

 

a) Betreiber, die Behörden oder Organe, Einrichtungen und sonstige Stellen der Union sind, oder Betreiber, die in deren Namen handeln;

 

b) Betreiber, die nach Verordnung (EU) 2022/1925 als Gatekeeper benannte Unternehmen sind.

Änderungsantrag  480

 

Vorschlag für eine Verordnung

Artikel 51 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Betreiber, die nicht unter Unterabsatz 1 a fallen, sind berechtigt, die Verwendung eines Hochrisiko-KI-Systems im Sinne von Artikel 6 Absatz 2 freiwillig in der EU-Datenbank gemäß Artikel 60 zu registrieren.

Änderungsantrag  481

 

Vorschlag für eine Verordnung

Artikel 51 – Absatz 1 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Unmittelbar nach jeder wesentlichen Änderung muss ein aktualisierter Registrierungseintrag vorgenommen werden.

Änderungsantrag  482

Vorschlag für eine Verordnung

Titel IV

 

Vorschlag der Kommission

Geänderter Text

TRANSPARENZPFLICHTEN FÜR BESTIMMTE KI-SYSTEME

TRANSPARENZPFLICHTEN

Änderungsantrag  483

 

Vorschlag für eine Verordnung

Artikel 52 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Transparenzpflichten für bestimmte KI-Systeme

Transparenzpflichten

Änderungsantrag  484

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass das KI-System, der Anbieter selbst oder der Nutzer die natürliche Person, die einem KI-System ausgesetzt ist, rechtzeitig, klar und verständlich darüber informiert, dass sie es mit einem KI-System zu tun hat, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich.

 

Soweit angemessen und sachdienlich, umfassen diese Informationen auch, welche Funktionen KI-gestützt sind, ob es eine menschliche Aufsicht gibt und wer für den Entscheidungsprozess verantwortlich ist, sowie die bestehenden Rechte und Verfahren, die es natürlichen Personen oder ihren Vertretern nach dem Unionsrecht und dem nationalen Recht ermöglichen, gegen die Anwendung solcher Systeme auf sie Einspruch zu erheben und gerichtlichen Rechtsbehelf gegen Entscheidungen, die von KI-Systemen getroffen wurden, oder gegen Schäden, die durch sie verursacht wurden, einzulegen, einschließlich ihres Rechts, eine Erklärung zu verlangen. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.

Änderungsantrag  485

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.

(2) Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung, das nicht gemäß Artikel 5 verboten ist, informieren die davon betroffenen natürlichen Personen rechtzeitig, klar und verständlich über den Betrieb des Systems und holen ihre Einwilligung vor der Verarbeitung ihrer biometrischen und sonstigen personenbezogenen Daten gemäß der Verordnung (EU) 2016/679, der Verordnung (EU) 2016/1725 bzw. der Richtlinie (EU) 2016/280 ein. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.

Änderungsantrag  486

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

(3) Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.

(3) Nutzer eines KI-Systems, das Text-, Audio- oder visuelle Inhalte erzeugt oder manipuliert, die fälschlicherweise als echt oder wahrhaftig erscheinen würden und in denen Personen ohne ihre Zustimmung dargestellt werden, die scheinbar Dinge sagen oder tun, die sie nicht gesagt oder getan haben („Deepfake“), müssen in angemessener, zeitnaher, klarer und sichtbarer Weise offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, sowie, wann immer möglich, den Namen der natürlichen oder juristischen Person, die sie erstellt oder manipuliert hat. Offenlegung bedeutet, dass der Inhalt in einer Weise gekennzeichnet wird, die darüber informiert, dass der Inhalt nicht echt ist, und die für den Empfänger dieses Inhalts deutlich sichtbar ist. Bei der Kennzeichnung der Inhalte berücksichtigen die Nutzer den allgemein anerkannten Stand der Technik und die einschlägigen harmonisierten Normen und Spezifikationen.

Änderungsantrag  487

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Unterabsatz 1 gilt jedoch nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.

(3a) Absatz 3 gilt nicht, wenn die Verwendung eines KI-Systems, das Text-, Audio- oder visuelle Inhalte erzeugt oder manipuliert, gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen. Wenn der Inhalt Teil eines offensichtlich kreativen, satirischen, künstlerischen oder fiktionalen Filmwerks, Videospiels, visuellen Werks oder analogen Programms ist, so beschränken sich die Transparenzpflichten gemäß Absatz 3 darauf, das Vorhandensein solcher generierten oder manipulierten Inhalte in geeigneter, klarer und sichtbarer Weise offenzulegen, die die Darstellung des Werks nicht beeinträchtigt, und gegebenenfalls die geltenden Urheberrechte offenzulegen. Sie hindern die Strafverfolgungsbehörden auch nicht daran, KI-Systeme zu verwenden, die dazu bestimmt sind, Deepfakes aufzudecken und Straftaten im Zusammenhang mit ihrer Verwendung zu verhindern, zu untersuchen und zu verfolgen.

Änderungsantrag  488

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3b) Die in den Absätzen 1 bis 3 genannten Informationen werden den natürlichen Personen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung bereitgestellt. Sie sind schutzbedürftigen Personen, etwa Menschen mit Behinderungen oder Kindern, zugänglich, und, sofern relevant und möglich, sind ergänzende Verfahren für die Intervention sowie die Meldung und Kennzeichnung von Inhalten seitens der betroffenen natürlichen Personen unter Berücksichtigung des allgemein anerkannten Stands der Technik und der einschlägigen harmonisierten Normen und gemeinsamen Spezifikationen vorzusehen.

Änderungsantrag  489

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) KI-Reallabore, die von den zuständigen Behörden eines oder mehrerer Mitgliedstaaten oder vom Europäischen Datenschutzbeauftragten eingerichtet werden, bieten eine kontrollierte Umgebung, um die Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme nach einem spezifischen Plan zu erleichtern. Dies geschieht unter direkter Aufsicht und Anleitung der zuständigen Behörden, um die Einhaltung der Anforderungen dieser Verordnung und gegebenenfalls anderer Rechtsvorschriften der Union und der Mitgliedstaaten, die innerhalb des Reallabors beaufsichtigt wird, sicherzustellen.

(1) Die Mitgliedstaaten richten mindestens ein KI-Reallabor auf nationaler Ebene ein, das spätestens am Tag des Inkrafttretens dieser Verordnung betriebsbereit ist. Dieses Reallabor kann auch gemeinsam mit einem oder mehreren anderen Mitgliedstaaten eingerichtet werden;

Änderungsantrag  490

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Es können auch zusätzliche KI-Reallabore auf regionaler oder lokaler Ebene oder gemeinsam mit anderen Mitgliedstaaten eingerichtet werden;

Änderungsantrag  491

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1b) Die Kommission und der Europäische Datenschutzbeauftragte können, entweder allein, gemeinsam oder in Zusammenarbeit mit einem oder mehreren Mitgliedstaaten, ebenfalls KI-Reallabore auf Unionsebene einrichten;

Änderungsantrag  492

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1c) Die einrichtenden Behörden stellen ausreichende Mittel bereit, um diesem Artikel wirksam und rechtzeitig nachzukommen;

Änderungsantrag  493

 

Vorschlag für eine Verordnung

Artikel 53– Absatz 1 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1d) KI-Reallabore bieten gemäß den in Artikel 53 a festgelegten Kriterien eine kontrollierte Umgebung, um Innovation zu fördern und die Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme nach einem bestimmten zwischen den zukünftigen Anbietern und der einrichtenden Behörde vereinbarten Plan zu erleichtern;

Änderungsantrag  494

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1e) Die Einrichtung von KI-Reallaboren soll zu den folgenden Zielen beitragen:

 

a) dass die zuständigen Behörden den zukünftigen Anbietern von KI-Systemen Anleitung bieten, um die Einhaltung dieser Verordnung oder gegebenenfalls anderer geltender Rechtsvorschriften der Union und der Mitgliedstaaten sicherzustellen;

 

b) dass die zukünftigen Anbieter die Erprobung und Entwicklung innovativer Lösungen im Zusammenhang mit KI-Systemen ermöglichen und erleichtern;

 

c) regulatorisches Lernen in einem kontrollierten Umfeld.

Änderungsantrag  495

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1 f (neu)

 

 

Vorschlag der Kommission

Geänderter Text

 

(1f) Die einrichtenden Behörden bieten Anleitung und Aufsicht innerhalb des Reallabors, um Risiken, insbesondere für die Grundrechte, die Demokratie und die Rechtsstaatlichkeit, die Gesundheit und die Sicherheit sowie die Umwelt zu ermitteln, Maßnahmen zur Minderung ermittelter Risiken und deren Wirksamkeit zu prüfen und nachzuweisen und die Einhaltung der Anforderungen dieser Verordnung und gegebenenfalls anderer Rechtsvorschriften der Union und der Mitgliedstaaten sicherzustellen;

Änderungsantrag  496

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1 g (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1g) Die einrichtenden Behörden bieten den zukünftigen Anbietern von Reallaboren, die Hochrisiko-KI-Systeme entwickeln, Anleitung und Aufsicht bei der Erfüllung der in dieser Verordnung festgelegten Anforderungen, sodass die KI-Systeme unter Annahme der Konformität mit den spezifischen Anforderungen dieser Verordnung, die im Reallabor bewertet wurden, aussteigen können. Sofern das KI-System beim Ausstieg aus dem Reallabor die Anforderungen erfüllt, wird von einer Konformität mit dieser Verordnung ausgegangen. In diesem Zusammenhang werden die von der einrichtenden Behörde erstellten Ausstiegsberichte je nach Fall von den Marktüberwachungsbehörden oder den notifizierten Stellen im Rahmen von Konformitätsbewertungsverfahren oder Marktüberwachungsprüfungen berücksichtigt;

Änderungsantrag  497

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Soweit die innovativen KI-Systeme personenbezogene Daten verarbeiten oder anderweitig der Aufsicht anderer nationaler Behörden oder zuständiger Behörden unterstehen, die den Zugang zu Daten gewähren oder unterstützen, sorgen die Mitgliedstaaten dafür, dass die nationalen Datenschutzbehörden und diese anderen nationalen Behörden in den Betrieb des KI-Reallabors einbezogen werden.

(2) Soweit die innovativen KI-Systeme personenbezogene Daten verarbeiten oder anderweitig der Aufsicht anderer nationaler Behörden oder zuständiger Behörden unterstehen, die den Zugang zu personenbezogenen Daten gewähren oder unterstützen, sorgen die einrichtenden Behörden dafür, dass die nationalen Datenschutzbehörden oder in den in Absatz 1 b genannten Fällen der EDSB und diese anderen nationalen Behörden in den Betrieb des KI-Reallabors sowie in die Überwachung dieser Aspekte im vollen Umfang ihrer entsprechenden Aufgaben und Befugnisse einbezogen werden;

Änderungsantrag  498

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden unberührt. Alle erheblichen Risiken für die Gesundheit und Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung solcher Systeme festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses bis eine solche Risikominderung erfolgt ist.

(3) Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden, einschließlich auf regionaler oder lokaler Ebene, unberührt. Alle erheblichen Risiken für die Grundrechte, Demokratie und Rechtsstaatlichkeit, Gesundheit und Sicherheit oder die Umwelt, die bei der Entwicklung und Erprobung solcher KI-Systeme festgestellt werden, führen zur sofortigen und angemessenen Risikominderung. Die zuständigen Behörden sind befugt, den Erprobungsprozess oder die Teilnahme am Reallabor vorübergehend oder dauerhaft auszusetzen, wenn keine wirksame Risikominderung möglich ist, und unterrichten das Amt für künstliche Intelligenz über diese Entscheidung;

Änderungsantrag  499

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die am KI-Reallabor Beteiligten bleiben nach geltendem Recht der Union und der Mitgliedstaaten für Schäden haftbar, die Dritten infolge der Erprobung im Reallabor entstehen.

(4) Die zukünftigen Anbieter im KI-Reallabor bleiben nach geltendem Recht der Union und der Mitgliedstaaten für Schäden haftbar, die Dritten infolge der Erprobung im Reallabor entstehen. Sofern die zukünftigen Anbieter den in Absatz 1c genannten spezifischen Plan und die Bedingungen für ihre Beteiligung beachten und in gutem Glauben die von den einrichtenden Behörden bereitgestellten Anleitung befolgen, werden jedoch von den Behörden keine Geldbußen für Verstöße gegen diese Verordnung verhängt.

Änderungsantrag  500

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Die zuständigen Behörden der Mitgliedstaaten, die KI-Reallabore eingerichtet haben, koordinieren ihre Tätigkeiten und arbeiten im Rahmen des Europäischen Ausschusses für künstliche Intelligenz zusammen. Sie übermitteln dem Ausschuss und der Kommission jährliche Berichte über die Ergebnisse der Umsetzung dieser Systeme, einschließlich bewährter Verfahren, gewonnener Erkenntnisse und Empfehlungen zu deren Aufbau, sowie gegebenenfalls über die Anwendung dieser Verordnung und anderer Rechtsvorschriften der Union, die innerhalb des Reallabors kontrolliert werden.

(5) Die einrichtenden Behörden koordinieren ihre Tätigkeiten und arbeiten im Rahmen des Amts für künstliche Intelligenz zusammen;

Änderungsantrag  501

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Die einrichtenden Behörden unterrichten das Amt für künstliche Intelligenz über die Einrichtung eines Reallabors und können um Unterstützung und Anleitung bitten. Eine Liste der geplanten und bestehenden Reallabore wird vom Amt für künstliche Intelligenz öffentlich zugänglich gemacht und auf dem neuesten Stand gehalten, um eine stärkere Interaktion in den Reallaboren und die transnationale Zusammenarbeit zu fördern;

Änderungsantrag  502

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 5 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5b) Die einrichtenden Behörden übermitteln dem Amt für künstliche Intelligenz und, sofern die Kommission nicht die einzige einrichtende Behörde ist, der Kommission jährliche Berichte, und zwar erstmals ein Jahr nach der Einrichtung des Reallabors und dann jedes Jahr bis zu dessen Beendigung sowie einen Abschlussbericht. Diese Berichte informieren über den Fortschritt und die Ergebnisse der Umsetzung dieser Reallabore, einschließlich bewährter Verfahren, Vorfällen, gewonnener Erkenntnisse und Empfehlungen zu deren Aufbau, sowie gegebenenfalls über die Anwendung und mögliche Überarbeitung dieser Verordnung und anderen Rechtsvorschriften der Union, die innerhalb des Reallabors kontrolliert werden. Diese jährlichen Berichte oder Zusammenfassungen davon werden der Öffentlichkeit im Internet zur Verfügung gestellt;

Änderungsantrag  503

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Die Modalitäten und Bedingungen für den Betrieb der KI-Reallabore, einschließlich Genehmigungskriterien und Verfahren für die Beantragung, Auswahl, Beteiligung und für den Ausstieg aus dem Reallabor, sowie die Rechte und Pflichten der Beteiligten werden in Durchführungsrechtsakten festgelegt. Diese Durchführungsrechtsakte werden gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.

(6) Die Kommission richtet eine eigene Schnittstelle, die alle relevanten Informationen zu den Reallaboren enthält, sowie eine zentrale Kontaktstelle auf Unionsebene ein, um mit den Reallaboren zu interagieren und den Interessenträgern die Möglichkeit zu geben, Anfragen an die zuständigen Behörden zu richten und unverbindliche Beratung zur Konformität innovativer Produkte, Dienstleistungen und Geschäftsmodelle mit integrierter KI-Technologie einzuholen;

 

Die Kommission stimmt sich proaktiv mit den nationalen, regionalen und gegebenenfalls auch lokalen Behörden ab;

Änderungsantrag  504

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 6 a (neu)

Artikel 53 – Absatz 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) Für die Zwecke der Absätze 1 und 1a übernimmt die Kommission eine ergänzende Rolle, indem sie einerseits den Mitgliedstaaten die Möglichkeit gibt, auf ihrem Fachwissen aufzubauen, und andererseits jenen Mitgliedstaaten, die sich bei der Einrichtung und dem Betrieb dieser Reallabore beraten lassen wollen, mit technischen Schulungen und Ressourcen zur Seite steht.

Änderungsantrag  505

 

Vorschlag für eine Verordnung

Artikel 53 a (neu)

Artikel 53 a (neu) – Überschrift

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 53a

 

Modalitäten und Funktionsweise von KI-Reallaboren

 

(1) Um eine Zersplitterung in der Union zu vermeiden, erlässt die Kommission in Absprache mit dem Amt für künstliche Intelligenz einen delegierten Rechtsakt, in dem die Modalitäten für die Einrichtung, Entwicklung, Umsetzung, Funktionsweise und Überwachung der KI-Reallabore, einschließlich der Genehmigungskriterien und des Verfahrens für die Beantragung, die Auswahl, die Beteiligung und den Ausstieg aus dem Reallabor sowie der Rechte und Pflichten der Teilnehmer auf der Grundlage der Bestimmungen dieses Artikels festgelegt werden;

 

(2) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte gemäß dem Verfahren in Artikel 73 innerhalb von 12 Monaten nach Inkrafttreten dieser Verordnung zu erlassen, und sie sorgt dafür, dass

 

a) Reallabore allen zukünftigen Anbietern eines KI-Systems, die einen Antrag stellen und die Eignungs- und Auswahlkriterien erfüllen, offen stehen. Die Kriterien für den Zugang zu den Reallaboren sind transparent und fair, und die einrichtenden Behörden teilen den Antragstellern ihre Entscheidung innerhalb von drei Monaten nach der Antragstellung mit;

 

b) die Reallabore einen breiten und gleichberechtigten Zugang ermöglichen und mit der Nachfrage nach Beteiligung Schritt halten;

 

c) der Zugang zu KI-Reallaboren für KMU und Start-ups kostenlos ist, unbeschadet außergewöhnlicher Kosten, die einrichtende Behörden in einer fairen und verhältnismäßigen Weise einfordern können;

 

d) Reallabore die Einbeziehung anderer relevanter Akteure innerhalb des KI-Ökosystems, wie etwa notifizierte Stellen und Normungsorganisationen (KMU, Start-ups, Unternehmen, Innovatoren, Erprobungs- und Versuchseinrichtungen, Forschungs- und Versuchslabore und digitale Innovationszentren, Kompetenzzentren, einzelne Forscher) begünstigen, um die Zusammenarbeit mit dem öffentlichen und privaten Sektor zu ermöglichen und zu erleichtern;

 

e) sie zukünftigen Anbietern ermöglichen, ihren Verpflichtungen zur Konformitätsbewertung nach dieser Verordnung oder der freiwilligen Anwendung der in Artikel 69 genannten Verhaltenskodizes in einem kontrollierten Umfeld nachzukommen;

 

f) die Verfahren, Prozesse und administrativen Anforderungen für die Antragstellung, die Auswahl, die Teilnahme und den Ausstieg aus dem Reallabor einfach, leicht verständlich und klar kommuniziert sind, um die Teilnahme von KMU und Start-ups mit begrenzten rechtlichen und administrativen Kapazitäten zu erleichtern, und unionsweit gestrafft sind, um eine Zersplitterung zu vermeiden, und dass die Teilnahme an einem von einem Mitgliedstaat, der Kommission oder dem EDSB eingerichteten Reallabor gegenseitig und einheitlich anerkannt wird und in der gesamten Union die gleiche Rechtswirkung hat;

 

g) die Beteiligung an dem KI-Reallabor auf einen der Komplexität und dem Umfang des Projekts entsprechenden Zeitraum beschränkt ist.

 

h) die Reallabore die Entwicklung von Tools und Infrastruktur für die Erprobung, das Benchmarking, die Bewertung und die Erklärung der Dimensionen von KI-Systemen, die für Reallabore von Bedeutung sind, etwa Genauigkeit, Robustheit und Cybersicherheit, sowie die Minimierung der Risiken für die Grundrechte, die Umwelt und die Gesellschaft als Ganzes, erleichtern.

 

(3) zukünftige Anbieter in den Reallaboren, insbesondere KMU und Start-ups, Zugang zu im Voraus bereitgestellten Dienstleistungen erhalten, z. B. zu Leitlinien für die Umsetzung dieser Verordnung, zu anderen wertvollen Dienstleistungen wie Hilfe bei Normungsdokumenten und Zertifizierungen und Konsultation sowie zu weiteren Initiativen des digitalen Binnenmarkts wie Erprobungs- und Versuchseinrichtungen, digitalen Knotenpunkten, Kompetenzzentren und EU-Benchmarking-Fähigkeiten;

Änderungsantrag  506

 

Vorschlag für eine Verordnung

Artikel 54 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Weiterverarbeitung personenbezogener Daten zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse im KI-Reallabor

Weiterverarbeitung von Daten zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse im KI-Reallabor

Änderungsantrag  507

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Im KI-Reallabor dürfen personenbezogene Daten, die rechtmäßig für andere Zwecke erhoben wurden, zur Entwicklung und Erprobung bestimmter innovativer KI-Systeme im Reallabor unter folgenden Bedingungen verarbeitet werden:

(1) Im KI-Reallabor können personenbezogene Daten, die rechtmäßig für andere Zwecke erhoben wurden, ausschließlich zur Entwicklung und Erprobung bestimmter KI-Systeme im Reallabor verarbeitet werden, wenn alle nachstehenden Bedingungen erfüllt sind:

Änderungsantrag  508

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe a – Einleitung

 

Vorschlag der Kommission

Geänderter Text

a) die innovativen KI-Systeme werden entwickelt, um ein erhebliches öffentliches Interesse in einem oder mehreren der folgenden Bereiche zu wahren:

a) KI-Systeme werden entwickelt, um ein erhebliches öffentliches Interesse in einem oder mehreren der folgenden Bereiche zu wahren:

 

ii) öffentliche Sicherheit und öffentliche Gesundheit, einschließlich Erkennung, Diagnose, Verhütung, Bekämpfung und Behandlung von Krankheiten,

 

iii) hohes Umweltschutzniveau und Verbesserung der Umweltqualität, Schutz der biologischen Vielfalt, Umweltverschmutzung sowie Klimaschutz und Anpassung an den Klimawandel;

 

iiia) Sicherheit und Widerstandsfähigkeit von Verkehrssystemen, kritischen Infrastrukturen und Netzen.

Änderungsantrag  509

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe a – Ziffer i

 

Vorschlag der Kommission

Geänderter Text

i) Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit unter der Kontrolle und Verantwortung der zuständigen Behörden, wobei die Verarbeitung auf der Grundlage des Rechts der Mitgliedstaaten oder des Unionsrechts erfolgt,

entfällt

Änderungsantrag  510

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) es bestehen wirksame Überwachungsmechanismen, um festzustellen, ob während der Erprobung im Reallabor hohe Risiken für die Grundrechte der betroffenen Personen auftreten können, sowie Reaktionsmechanismen, um diese Risiken umgehend zu mindern und erforderlichenfalls die Verarbeitung zu beenden;

c) es bestehen wirksame Überwachungsmechanismen, um festzustellen, ob während der Erprobung im Reallabor hohe Risiken für die Rechte und Freiheiten der betroffenen Personen gemäß Artikel 35 der Verordnung (EU) 2016/679 und gemäß Artikel 39 der Verordnung (EU) 2018/1725 auftreten können, sowie Reaktionsmechanismen, um diese Risiken umgehend zu mindern und erforderlichenfalls die Verarbeitung zu beenden;

Änderungsantrag  511

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) personenbezogene Daten, die im Rahmen des Reallabors verarbeitet werden sollen, befinden sich in einer funktional getrennten, isolierten und geschützten Datenverarbeitungsumgebung unter der Kontrolle der Beteiligten, und nur befugte Personen haben Zugriff auf diese Daten;

d) personenbezogene Daten, die im Rahmen des Reallabors verarbeitet werden sollen, befinden sich in einer funktional getrennten, isolierten und geschützten Datenverarbeitungsumgebung unter der Kontrolle der zukünftigen Anbieter, und nur befugte Personen haben Zugriff auf diese Daten;

Änderungsantrag  512

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) eine Verarbeitung personenbezogener Daten im Rahmen des Reallabors führt zu keinen Maßnahmen oder Entscheidungen, die Auswirkungen auf die betroffenen Personen haben;

f) eine Verarbeitung personenbezogener Daten im Rahmen des Reallabors führt zu keinen Maßnahmen oder Entscheidungen, die Auswirkungen auf die betroffenen Personen haben, und berührt nicht die Anwendung ihrer Rechte gemäß den Rechtsvorschriften der Union über den Schutz personenbezogener Daten;

Änderungsantrag  513

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) personenbezogene Daten, die im Rahmen des Reallabors verarbeitet wurden, werden gelöscht, sobald die Beteiligung an dem Reallabor beendet wird oder das Ende der Speicherfrist für die personenbezogenen Daten erreicht ist;

g) personenbezogene Daten, die im Rahmen des Reallabors verarbeitet wurden, sind durch geeignete technische und organisatorische Maßnahmen geschützt und werden gelöscht, sobald die Beteiligung an dem Reallabor beendet wird oder das Ende der Speicherfrist für die personenbezogenen Daten erreicht ist;

Änderungsantrag  514

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe h

 

Vorschlag der Kommission

Geänderter Text

h) die Protokolle der Verarbeitung personenbezogener Daten im Rahmen des Reallabors werden für die Dauer der Beteiligung am Reallabor und noch 1 Jahr nach deren Beendigung ausschließlich zu dem Zweck und nur so lange aufbewahrt, wie dies zur Erfüllung der Rechenschafts- und Dokumentationspflichten nach diesem Artikel oder anderen anwendbaren Rechtsvorschriften der Union oder der Mitgliedstaaten erforderlich ist;

h) die Protokolle der Verarbeitung personenbezogener Daten im Rahmen des Reallabors werden für die Dauer der Beteiligung am Reallabor aufbewahrt;

Änderungsantrag  515

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe j

 

Vorschlag der Kommission

Geänderter Text

j) eine kurze Zusammenfassung des im KI-Reallabor entwickelten KI-Projekts, seiner Ziele und erwarteten Ergebnisse wird auf der Website der zuständigen Behörden veröffentlicht.

j) eine kurze Zusammenfassung des im KI-Reallabor entwickelten KI-Systems, seiner Ziele, Hypothesen und erwarteten Ergebnisse wird auf der Website der zuständigen Behörden veröffentlicht;

Änderungsantrag  516

 

Vorschlag für eine Verordnung

Artikel 54 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 54a

 

Förderung der KI-Forschung und -Entwicklung zur Unterstützung sozial und ökologisch vorteilhafter Resultate

 

(1) Die Mitgliedstaaten fördern die Forschung und Entwicklung von KI-Lösungen, die sozial und ökologisch vorteilhafte Ergebnisse unterstützen, einschließlich, aber nicht beschränkt auf die Entwicklung von KI-basierten Lösungen zur Verbesserung der Zugänglichkeit für Menschen mit Behinderungen, zur Beseitigung sozioökonomischer Ungleichheiten und zur Erfüllung von Nachhaltigkeits- und Umweltzielen, durch:

 

a) vorrangigen Zugang relevanter Projekte zu den KI-Reallaboren, sofern sie die Voraussetzungen für die Auswahlkriterien erfüllen;

 

b) Bereitstellung öffentlicher Mittel, auch aus den einschlägigen EU-Fonds, für die KI-Forschung und -Entwicklung zur Unterstützung sozial und ökologisch vorteilhafter Resultate;

 

c) Organisation spezifischer Sensibilisierungsmaßnahmen über die Anwendung dieser Verordnung, die Verfügbarkeit von und die Antragsverfahren für gezielte Finanzierung, die auf die Bedürfnisse dieser Projekte zugeschnitten sind;

 

d) gegebenenfalls die Einrichtung zugänglicher gezielter Kanäle, auch innerhalb der Reallabore, für die Kommunikation mit den Projekten, um Anleitungen zu geben und Anfragen zur Umsetzung dieser Verordnung zu beantworten.

 

Die Mitgliedstaaten unterstützen die Zivilgesellschaft und die gesellschaftlichen Akteuren bei der Leitung von oder der Beteiligung an solchen Projekten;

Änderungsantrag  517

 

Vorschlag für eine Verordnung

Artikel 55 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Maßnahmen für Kleinanbieter und Kleinnutzer

Maßnahmen für KMU, Start-up-Unternehmen und Nutzer

 

Änderungsantrag  518

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Gewährung eines vorrangigen Zugangs zu den KI-Reallaboren für Kleinanbieter und Start-up-Unternehmen, soweit sie die entsprechenden Voraussetzungen erfüllen;

a) Gewährung eines vorrangigen Zugangs zu den KI-Reallaboren für in der Union niedergelassene KMU und Start-up-Unternehmen, soweit sie die entsprechenden Voraussetzungen erfüllen;

Änderungsantrag  519

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Durchführung besonderer Sensibilisierungsmaßnahmen für die Anwendung dieser Verordnung, die auf die Bedürfnisse der Kleinanbieter und Kleinnutzer ausgerichtet sind;

b) Durchführung besonderer Sensibilisierungsmaßnahmen für die Anwendung dieser Verordnung, die auf die Bedürfnisse von KMU, Start-up-Unternehmen und Nutzern ausgerichtet sind;

Änderungsantrag  520

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) gegebenenfalls Einrichtung eines eigenen Kanals für die Kommunikation mit Kleinanbietern, Kleinnutzern und anderen Innovatoren, um Orientierungen zu geben und Fragen zur Durchführung dieser Verordnung zu beantworten.

c) Nutzung der entsprechenden bestehenden Kanäle und gegebenenfalls Einrichtung neuer eigener Kanäle für die Kommunikation mit KMU, Start-up-Unternehmen, Nutzern und anderen Innovatoren, um Orientierungen zu geben und Fragen zur Durchführung dieser Verordnung zu beantworten;

Änderungsantrag  521

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) Förderung der Beteiligung von KMU und anderen einschlägigen Interessenträgern an der Entwicklung von Normen;

Änderungsantrag  522

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Festsetzung der Gebühren für die Konformitätsbewertung gemäß Artikel 43 werden die besonderen Interessen und Bedürfnisse von Kleinanbietern berücksichtigt, indem diese Gebühren proportional zu ihrer Größe und der Größe ihres Marktes gesenkt werden.

(2) Bei der Festsetzung der Gebühren für die Konformitätsbewertung gemäß Artikel 43 werden die besonderen Interessen und Bedürfnisse von KMU, Start-up-Unternehmen und Nutzern berücksichtigt, indem diese Gebühren proportional zum Entwicklungsstadium, zu ihrer Größe, der Größe ihres Marktes und der Marktnachfrage gesenkt werden. Die Kommission bewertet regelmäßig die Zertifizierungs- und Befolgungskosten für KMU und Start-up-Unternehmen, unter anderem durch transparente Konsultationen mit KMU, Start-up-Unternehmen und Nutzern, und arbeitet mit den Mitgliedstaaten zusammen, um diese Kosten nach Möglichkeit zu senken. Die Kommission erstattet dem Europäischen Parlament und dem Rat im Rahmen des Berichts über die Bewertung und Überarbeitung dieser Verordnung gemäß Artikel 84 Absatz 2 Bericht über diese Ergebnisse.

Änderungsantrag  523

 

Vorschlag für eine Verordnung

Artikel 56 – ABSCHNITT 1 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

 

Titel

 

ABSCHNITT 1: Allgemeine Bestimmungen über das Europäische Amt für künstliche Intelligenz

Änderungsantrag  524

 

Vorschlag für eine Verordnung

Artikel 56 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Einrichtung des Europäischen Ausschusses für künstliche Intelligenz

Einrichtung des Europäischen Amts für künstliche Intelligenz

Änderungsantrag  525

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) EinEuropäischer Ausschuss für künstliche Intelligenz“ (im Folgenden „Ausschuss“) wird eingerichtet.

(1) DasEuropäische Amt für künstliche Intelligenz“ (im Folgenden „Amt für künstliche Intelligenz“) wird hiermit eingerichtet. Das Amt für künstliche Intelligenz ist eine selbständige Einrichtung der Union. Es besitzt Rechtspersönlichkeit.

Änderungsantrag  526

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Der Ausschuss berät und unterstützt die Kommission zu folgenden Zwecken:

(2) Das Amt für künstliche Intelligenz hat ein Sekretariat und wird angemessen mit Mitteln und Personal ausgestattet, um seine Aufgaben gemäß dieser Verordnung wahrzunehmen.

Änderungsantrag  527

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Das Amt für künstliche Intelligenz hat seinen Sitz in Brüssel.

Änderungsantrag  528

 

Vorschlag für eine Verordnung

Artikel 56 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 56a

 

Struktur

 

Die Verwaltungs- und Leitungsstruktur des Amts für künstliche Intelligenz umfasst

 

a) einen Verwaltungsrat, einschließlich eines Vorsitzes

 

b) ein von einem Verwaltungsdirekter geleitetes Sekretariat

 

c) einen Beirat.

Änderungsantrag  529

 

Vorschlag für eine Verordnung

Artikel 56 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 56b

 

Aufgaben des Amts für künstliche Intelligenz

 

Das Amt für künstliche Intelligenz nimmt folgende Aufgaben wahr:

 

a) Unterstützung, Beratung und Zusammenarbeit mit den Mitgliedstaaten, den nationalen Aufsichtsbehörden, der Kommission und anderen Organen, Einrichtungen, Ämtern und Agenturen der Union bei der Durchführung dieser Verordnung;

 

b) Überwachung und Sicherstellung der wirksamen und einheitlichen Anwendung dieser Verordnung unbeschadet der Aufgaben der nationalen Aufsichtsbehörden;

 

c) Beteiligung an der Koordinierung zwischen den für die Anwendung dieser Verordnung zuständigen nationalen Aufsichtsbehörden;

 

d) Vermittlerfunktion bei Diskussionen über schwerwiegende Meinungsverschiedenheiten, die sich zwischen den zuständigen Behörden hinsichtlich der Anwendung der Verordnung ergeben können;

 

e) Koordinierung der gemeinsamen Untersuchungen gemäß Artikel 66a;

 

f) Beitrag zur wirksamen Zusammenarbeit mit den zuständigen Behörden von Drittstaaten und mit internationalen Organisationen;

 

g) Sammlung von Fachwissen und bewährten Verfahren und deren Austausch zwischen den Mitgliedstaaten sowie Unterstützung der nationalen Aufsichtsbehörden der Mitgliedstaaten und der Kommission bei der Entwicklung des für die Umsetzung dieser Verordnung erforderlichen organisatorischen und technischen Fachwissens, unter anderem durch die Förderung der Schaffung und Pflege eines Expertenpools der Union;

 

h) Prüfung von Fragen im Zusammenhang mit der Durchführung dieser Verordnung auf eigene Initiative oder auf Anfrage seines Verwaltungsrates oder der Kommission sowie Abgabe von Stellungnahmen, Empfehlungen oder schriftlichen Beiträgen, unter anderem in Bezug auf:

 

i) technische Spezifikation oder bestehende Normen; ii) die Leitlinien der Kommission

 

iii) Verhaltenskodizes und deren Anwendung in enger Zusammenarbeit mit der Industrie und anderen einschlägigen Interessenträgern;

 

iv) die mögliche Überarbeitung der Verordnung, die Ausarbeitung der delegierten Rechtsakte und mögliche Anpassungen dieser Verordnung an die in Anhang II aufgeführten Rechtsakte;

 

v) Trends, wie z. B. die globale Wettbewerbsfähigkeit Europas im Bereich der künstlichen Intelligenz, die Übernahme von künstlicher Intelligenz in der Union, die Entwicklung digitaler Fähigkeiten und neu aufkommende systemische Bedrohungen im Zusammenhang mit künstlicher Intelligenz;

 

vi) Empfehlungen, wie diese Verordnung auf die sich ständig weiterentwickelnde Typologie der KI-Wertschöpfungsketten, insbesondere auf die sich daraus ergebenden Auswirkungen auf die Rechenschaftspflicht aller beteiligten Stellen, Anwendung findet.

 

i) Veröffentlichung

 

i) eines jährlichen Berichts mit einer Bewertung der Durchführung dieser Verordnung, einer Überprüfung der Meldungen schwerwiegender Vorfälle gemäß Artikel 62 und das Funktionieren der in Artikel 60 genannten Datenbank sowie

 

ii) von Empfehlungen an die Kommission zur Einstufung von verbotenen Praktiken, zu den in Anhang III genannten Hochrisiko-KI-Systemen, zu den in Artikel 69 genannten Verhaltenskodizes und zur Anwendung der in Artikel 4a dargelegten allgemeinen Grundsätze.

 

j) Unterstützung der Behörden bei der Einrichtung und Entwicklung von Reallaboren und Erleichterung der Zusammenarbeit zwischen den Reallaboren;

 

k) Veranstaltung von Sitzungen mit Agenturen und leitenden Organen der Union, deren Aufgaben mit künstlicher Intelligenz und der Durchführung dieser Verordnung zu tun haben;

 

l) Abhaltung von vierteljährlichen Anhörungen mit dem Beirat und gegebenenfalls von öffentlichen Anhörungen mit anderen Interessenträgern sowie Veröffentlichung der Ergebnisse dieser Anhörungen auf seiner Website;

 

m) Sensibilisierung und Aufklärung der Öffentlichkeit in Bezug auf die Vorteile, Risiken, Schutzmaßnahmen, Rechte und Pflichten im Zusammenhang mit der Nutzung von KI-Systemen;

 

n) Erleichterung der Entwicklung gemeinsamer Kriterien und eines gemeinsamen Verständnisses der Marktteilnehmer und der zuständigen Behörden in Bezug auf die in dieser Verordnung vorgesehenen einschlägigen Konzepte;

 

o) Überwachung von Basismodellen und Veranstaltung eines regelmäßigen Dialogs mit den Entwicklern von Basismodellen in Bezug auf deren Konformität sowie von KI-Systemen, die solche KI-Modelle nutzen;

 

p) Bereitstellung eines Auslegungsleitfadens, wie das Gesetz über künstliche Intelligenz Anwendung auf die sich ständig weiterentwickelnde Typologie der KI-Wertschöpfungsketten findet und welche Auswirkungen sich daraus für die Rechenschaftspflicht aller beteiligten Stellen im Rahmen der verschiedenen Szenarien auf der Grundlage des allgemein anerkannten Stand der Technik ergeben, wie er auch in einschlägigen harmonisierten Normen zum Ausdruck kommt;

 

q) Besondere Aufsicht und Überwachung sowie Institutionalisierung eines regelmäßigen Dialogs mit den Anbietern von Basismodellen über die Erfüllung des Artikels 28b dieser Verordnung von Basismodellen und KI-Systemen, die solche KI-Modelle nutzen, sowie über bewährte Verfahren der Branche für die Selbstverwaltung. Die nationalen Aufsichtsbehörden, die notifizierten Stellen und die Marktüberwachungsbehörden können an jeder solchen Sitzung teilnehmen und Beiträge leisten.

 

r) Veröffentlichung und regelmäßige Aktualisierung von Leitlinien zu den Schwellenwerten, ab denen das Trainieren eines Basismodells als großer Trainingslauf gilt, Aufzeichnung und Überwachung bekannter Fälle von großen Trainingsläufen sowie Veröffentlichung eines jährlichen Berichts über den Stand der Entwicklung, Verbreitung und Nutzung von Basismodellen zusammen mit politischen Optionen zur Bewältigung der spezifischen Risiken und Chancen von Basismodellen.

 

s) Förderung der KI-Kompetenz gemäß Artikel 4b.

Änderungsantrag  530

 

Vorschlag für eine Verordnung

Artikel 56 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 56c

 

Rechenschaftspflicht, Unabhängigkeit und Transparenz

 

(1) Das Amt für künstliche Intelligenz

 

a) ist im Einklang mit dieser Verordnung gegenüber dem Europäischen Parlament und dem Rat rechenschaftspflichtig;

 

b) handelt bei der Erfüllung seiner Aufgaben oder der Ausübung seiner Befugnisse unabhängig; und

 

c) stellt ein hohes Maß an Transparenz für seine Tätigkeiten sicher und entwickelt diesbezüglich gute Verwaltungspraktiken.

 

Für die Dokumente des Amts für künstliche Intelligenz findet die Verordnung (EG) Nr. 1049/2001 Anwendung.

Änderungsantrag  531

 

Vorschlag für eine Verordnung

Artikel 57 a (neu) – ABSCHNITT 2 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

 

Titel

 

ABSCHNITT 2: Verwaltungsrat

Änderungsantrag  532

 

Vorschlag für eine Verordnung

Artikel 57 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 57a

 

Zusammensetzung des Verwaltungsrats

 

(1) Dem Verwaltungsrat gehören die folgenden Mitglieder an:

 

a) ein Vertreter der nationalen Aufsichtsbehörde eines jeden Mitgliedstaats;

 

b) ein Vertreter der Kommission;

 

c) ein Vertreter des Europäischen Datenschutzbeauftragten (EDSB);

 

d) ein Vertreter der Agentur der Europäischen Union für Cybersicherheit (ENISA);

 

e) ein Vertreter der Agentur für Grundrechte (FRA)

 

Jeder Vertreter einer nationalen Aufsichtsbehörde hat eine Stimme. Die Vertreter der Kommission, des EDSB, der ENISA und der FRA haben kein Stimmrecht. Jedes Mitglied hat einen Stellvertreter. Bei der Ernennung der Mitglieder und der stellvertretenden Mitglieder des Verwaltungsrats wird auf ein ausgewogenes Verhältnis zwischen den Geschlechtern geachtet. Die Mitglieder des Verwaltungsrats und ihre stellvertretenden Mitglieder werden öffentlich bekannt gemacht.

 

(2) Die Mitglieder und stellvertretenden Mitglieder des Verwaltungsrats dürfen keine im Konflikt stehenden Funktionen oder geschäftlichen Interessen in Bezug auf Themen im Zusammenhang mit der Anwendung dieser Verordnung innehaben bzw. haben.

 

(3) Die Regeln für die Sitzungen und Abstimmungen des Verwaltungsrats sowie für die Ernennung und Abberufung des Exekutivdirektors werden in der in Artikel 57 b Buchstabe a genannten Geschäftsordnung festgelegt.

Änderungsantrag  533

 

Vorschlag für eine Verordnung

Artikel 57 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 57b

 

Aufgaben des Verwaltungsrats

 

(1) Der Verwaltungsrat hat folgende Aufgaben:

 

a) Verabschiedung strategischer Entscheidungen über die Tätigkeiten des Amts für künstliche Intelligenz und Erlass seiner Geschäftsordnung mit einer Mehrheit von zwei Dritteln seiner Mitglieder;

 

b) Umsetzung seiner Geschäftsordnung;

 

c) Annahme des einheitlichen Programmplanungsdokuments des Amts für künstliche Intelligenz sowie seines öffentlichen Jahresberichts und Übermittlung beider an das Europäische Parlament, den Rat, die Kommission und den Rechnungshof;

 

d) Verabschiedung des Haushalts des Amts für künstliche Intelligenz;

 

e) Ernennung des Exekutivdirektors und gegebenenfalls Verlängerung seiner Amtszeit oder seine Abberufung;

 

f) Beschlussfassung über die Festlegung der internen Strukturen des Amts für künstliche Intelligenz und erforderlichenfalls über die Änderung dieser internen Strukturen, die für die Erfüllung der Aufgaben des Amts für künstliche Intelligenz erforderlich sind;

Änderungsantrag  534

 

Vorschlag für eine Verordnung

Artikel 57 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 57c

 

Vorsitz des Verwaltungsrats

 

(1) Der Verwaltungsrat wählt aus dem Kreis seiner stimmberechtigten Mitglieder mit einfacher Mehrheit einen Vorsitz und zwei stellvertretende Vorsitze.

 

(2) Die Amtszeit des Vorsitzes und des stellvertretenden Vorsitzes beträgt vier Jahre. Die Amtszeit des Vorsitzes und der stellvertretenden Vorsitze kann einmal verlängert werden.

Änderungsantrag  535

 

Vorschlag für eine Verordnung

Artikel 57 – ABSCHNITT 3 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Struktur des Ausschusses

Sekretariat

Änderungsantrag  536

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, und dem Europäischen Datenschutzbeauftragten. Weitere nationale Behörden können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind.

(1) Die Tätigkeiten des Sekretariats werden von einem Exekutivdirektor geleitet. Der Exekutivdirektor ist dem Verwaltungsrat gegenüber rechenschaftspflichtig. Unbeschadet der jeweiligen Befugnisse des Verwaltungsrats und der Organe der Union darf der Exekutivdirektor Weisungen von Regierungen oder sonstigen Stellen weder einholen noch entgegennehmen.

Änderungsantrag  537

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Der Ausschuss gibt sich mit einfacher Mehrheit seiner Mitglieder und nach Zustimmung der Kommission eine Geschäftsordnung. Die Geschäftsordnung regelt auch die operativen Aspekte der Wahrnehmung der in Artikel 58 aufgeführten Aufgaben des Ausschusses. Der Ausschuss kann gegebenenfalls Untergruppen zur Prüfung besonderer Fragen einsetzen.

(2) Der Exekutivdirektor nimmt an Anhörungen zu allen Fragen im Zusammenhang mit den Tätigkeiten des Amts für künstliche Intelligenz teil und erstattet auf Aufforderung des Europäischen Parlaments oder des Rates Bericht über die Erfüllung seiner Aufgaben.

Änderungsantrag  538

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Den Vorsitz im Ausschuss führt die Kommission. Die Kommission beruft die Sitzungen ein und bereitet die Tagesordnung im Einklang mit den Aufgaben des Ausschusses gemäß dieser Verordnung und seiner Geschäftsordnung vor. Die Kommission leistet administrative und analytische Unterstützung für die Tätigkeiten des Ausschusses gemäß dieser Verordnung.

(3) Der Exekutivdirektor vertritt das Amt für künstliche Intelligenz, einschließlich in internationalen Gremien für die Zusammenarbeit im Bereich der künstlichen Intelligenz;

Änderungsantrag  539

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Der Ausschuss kann externe Sachverständige und Beobachter zu seinen Sitzungen einladen und einen Meinungsaustausch mit interessierten Dritten führen, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Verwaltungsrat und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union fördern.

(4) Das Sekretariat leistet dem Verwaltungsrat und dem Beirat die analytische, administrative und logistische Unterstützung, die zur Erfüllung der Aufgaben des Amts für künstliche Intelligenz erforderlich ist, unter anderem durch

 

a) die Umsetzung der vom Verwaltungsrat angenommenen Beschlüsse, Programme und Maßnahmen;

 

b) die alljährliche Erstellung des Entwurfs des einheitlichen Programmplanungsdokuments, des Entwurfs des Haushaltsplans, des jährlichen Bericht über die Tätigkeiten des Amts für künstliche Intelligenz, der Entwürfe von Stellungnahmen und Standpunkten des Amts für künstliche Intelligenz und deren Übermittlung an den Verwaltungsrat;

 

c) die Koordinierung mit internationalen Foren für die Zusammenarbeit im Bereich der künstlichen Intelligenz;

Änderungsantrag  540

 

Vorschlag für eine Verordnung

Artikel 58 – ABSCHNITT 4 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Aufgaben des Ausschusses

Beirat

Änderungsantrag  541

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

Bei der Beratung und Unterstützung der Kommission im Zusammenhang mit Artikel 56 Absatz 2 hat der Ausschuss insbesondere folgende Aufgaben:

Der Beirat liefert dem Amt für künstliche Intelligenz Beiträge der Interessenträger zu Fragen im Zusammenhang mit dieser Verordnung, insbesondere im Hinblick auf die in Artikel 56b Buchstabe l genannten Aufgaben:

Änderungsantrag  542

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 2 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die Mitglieder des Beirats vertreten eine ausgewogene Auswahl von Interessenträgern, darunter die Industrie, Start-up-Unternehmen, KMU, die Zivilgesellschaft, die Sozialpartner und die Wissenschaft. Bei der Zusammensetzung des Beirats wird auf ein ausgewogenes Verhältnis zwischen gewerblichen und nicht-gewerblichen Interessen und innerhalb der Kategorie der gewerblichen Interessen zwischen KMU und anderen Unternehmen geachtet.

Änderungsantrag  543

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 3 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Der Verwaltungsrat ernennt die Mitglieder des Beirats nach dem in der Geschäftsordnung des Amts für künstliche Intelligenz festgelegten Auswahlverfahren und unter Berücksichtigung des Bedarfs an Transparenz sowie gemäß den in Absatz 2 genannten Kriterien;

Änderungsantrag  544

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 4 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die Amtszeit der Mitglieder des Beirats beträgt zwei Jahre; sie kann um höchstens vier Jahre verlängert werden.

Änderungsantrag  545

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 5 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Das Europäische Komitee für Normung (CEN), das Europäische Komitee für elektrotechnische Normung (CENELEC) und das Europäische Institut für Telekommunikationsnormen (ETSI) sind ständige Mitglieder des Beirats. Die Gemeinsame Forschungsstelle ist ein ständiges Mitglied ohne Stimmrecht.

Änderungsantrag  546

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 6 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Der Beirat gibt sich eine Geschäftsordnung. Er wählt gemäß den in Absatz 2 festgelegten Kriterien zwei Ko-Vorsitzende unter seinen Mitgliedern. Die Amtszeit der Ko-Vorsitzenden beträgt zwei Jahre und kann einmal verlängert werden.

Änderungsantrag  547

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 7 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Der Beirat hält mindestens viermal pro Jahr Sitzungen ab. Der Beirat kann Experten und andere Interessenträger zu seinen Sitzungen einladen. Der Exekutivdirektor kann von Amts wegen an den Sitzungen des Beirats teilnehmen.

Änderungsantrag  548

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 8 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Zur der Wahrnehmung seiner Aufgaben gemäß Absatz 1 kann der Beirat Stellungnahmen, Empfehlungen und schriftliche Beiträge ausarbeiten.

Änderungsantrag  549

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 9 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Der Beirat kann gegebenenfalls ständige oder zeitweilige Untergruppen einsetzen, um spezifische Fragen im Zusammenhang mit den Zielen dieser Verordnung zu prüfen.

Änderungsantrag  550

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 10 (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Der Beirat erstellt jährlich einen Bericht über seine Tätigkeit. Dieser Bericht wird veröffentlicht.

Änderungsantrag  551

 

Vorschlag für eine Verordnung

Artikel 58 a – ABSCHNITT 5 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

 

Europäische Benchmarking-Behörden

Änderungsantrag  552

 

Vorschlag für eine Verordnung

Artikel 58 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 58a

 

Benchmarking

 

Die in Artikel 15 Absatz 1a genannten europäischen Benchmarking-Behörden und das Amt für künstliche Intelligenz entwickeln in enger Zusammenarbeit mit internationalen Partnern gemeinsam kosteneffiziente Leitlinien und Kapazitäten zur Messung und zum Vergleich von Aspekten von KI-Systemen und KI-Komponenten und insbesondere von Basismodellen, die für die Einhaltung und Durchsetzung dieser Verordnung relevant sind, und zwar auf der Grundlage des allgemein anerkannten Stands der Technik, wie er auch in einschlägigen harmonisierten Normen zum Ausdruck kommt.

Änderungsantrag  553

 

Vorschlag für eine Verordnung

Artikel 59 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Benennung der zuständigen nationalen Behörden

Benennung der nationalen Aufsichtsbehörden

Änderungsantrag  554

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Um die Anwendung und Durchführung dieser Verordnung sicherzustellen, werden von jedem Mitgliedstaat zuständige nationale Behörden eingerichtet oder benannt. Die zuständigen nationalen Behörden werden so organisiert, dass bei der Ausübung ihrer Tätigkeiten und der Wahrnehmung ihrer Aufgaben Objektivität und Unparteilichkeit gewahrt sind.

(1) Jeder Mitgliedstaat benennt bis zum … [drei Monate nach dem Datum des Inkrafttretens dieser Verordnung] eine nationale Aufsichtsbehörde, die so organisiert ist, dass bei der Ausübung ihrer Tätigkeiten und der Wahrnehmung ihrer Aufgaben Objektivität und Unparteilichkeit gewahrt sind.

Änderungsantrag  555

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Jeder Mitgliedstaat benennt aus der Reihe der zuständigen nationalen Behörden eine nationale Aufsichtsbehörde. Die nationale Aufsichtsbehörde fungiert als notifizierende Behörde und als Marktüberwachungsbehörde, es sei denn, der Mitgliedstaat hat organisatorische und administrative Gründe, um mehr als eine Behörde zu benennen.

(2) Die nationale Aufsichtsbehörde ist dafür verantwortlich, die Anwendung und Durchführung dieser Verordnung sicherzustellen. Hinsichtlich der Hochrisiko-AI-Systeme, die sich auf Produkte beziehen, für die die in Anhang II aufgeführten Rechtsakte gelten, führen die nach diesen Rechtsakten benannten zuständigen Behörden weiterhin die Verwaltungsverfahren durch. Soweit ein Fall jedoch Aspekte betrifft, die ausschließlich unter diese Verordnung fallen, sind die zuständigen Behörden an die von der gemäß dieser Verordnung benannten nationalen Aufsichtsbehörde erlassenen Maßnahmen gebunden. Die nationale Aufsichtsbehörde fungiert als Marktaufsichtsbehörde.

Änderungsantrag  556

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Mitgliedstaaten teilen der Kommission ihre Benennung oder Benennungen sowie gegebenenfalls ihre Gründe für die Benennung von mehr als einer Behörde mit.

(3) Die Mitgliedstaaten machen die nationale Aufsichtsbehörde sowie Informationen darüber, wie sie kontaktiert werden kann, bis zum …[drei Monate nach dem Datum des Inkrafttreten dieser Verordnung] öffentlich zugänglich und setzen das Amt für künstliche Intelligenz und die Kommission darüber in Kenntnis. Die nationale Aufsichtsbehörde fungiert als zentrale Kontaktstelle für diese Verordnung und sollte über elektronische Kommunikationsmittel erreichbar sein.

Änderungsantrag  557

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Mitgliedstaaten sorgen dafür, dass die zuständigen nationalen Behörden mit angemessenen finanziellen und personellen Ressourcen ausgestattet werden, damit sie ihre Aufgaben im Rahmen dieser Verordnung wahrnehmen können. Insbesondere müssen die zuständigen nationalen Behörden ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten und Datenverarbeitung, der Grundrechte, der Gesundheits- und Sicherheitsrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen.

(4) Die Mitgliedstaaten sorgen dafür, dass die nationale Aufsichtsbehörde mit angemessenen technischen, finanziellen und personellen Ressourcen und Infrastrukturen ausgestattet wird, damit sie ihre Aufgaben wirksam im Rahmen dieser Verordnung wahrnehmen kann. Insbesondere muss die nationale Aufsichtsbehörde ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten und Datenverarbeitung, des Schutzes personenbezogener Daten, der Cybersicherheit, des Wettbewerbsrechts, der Grundrechte, der Gesundheits- und Sicherheitsrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen. Die Mitgliedstaaten bewerten und aktualisieren, falls erforderlich, jährlich die in diesem Absatz genannten Anforderungen an die Kompetenzen und die Ressourcen.

Änderungsantrag  558

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Jede nationale Aufsichtsbehörde ist bei der Ausübung ihrer Befugnisse und der Wahrnehmung ihrer Aufgaben unabhängig, unparteiisch und unvoreingenommen. Die Mitglieder jeder nationalen Aufsichtsbehörde holen bei der Erfüllung ihrer Aufgaben und der Ausübung ihrer Befugnisse gemäß dieser Verordnung weder Weisungen von Stellen ein noch nehmen sie Weisungen entgegen und sehen von allen mit den Aufgaben ihres Amts nicht zu vereinbarenden Handlungen ab.

Änderungsantrag  559

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4b) Die nationalen Aufsichtsbehörden erfüllen die Mindestanforderungen an die Cybersicherheit, die für als Betreiber wesentlicher Dienste eingestufte Einrichtungen der öffentlichen Verwaltung gemäß der Richtlinie (EU) 2022/2555 festgelegt wurden.

Änderungsantrag  560

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4c) Bei der Erfüllung ihrer Aufgaben hält sich die nationale Aufsichtsbehörde an in Artikel 70 festgelegten Vertraulichkeitspflichten.

Änderungsantrag  561

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Die Mitgliedstaaten übermitteln der Kommission jährlich einen Bericht über den Stand der finanziellen und personellen Ressourcen der zuständigen nationalen Behörden, in dem sie auch deren Angemessenheit bewerten. Die Kommission leitet diese Informationen an den Ausschuss zur Erörterung und etwaigen Abgabe von Empfehlungen weiter.

(5) Die Mitgliedstaaten übermitteln der Kommission jährlich einen Bericht über den Stand der finanziellen und personellen Ressourcen der nationalen Aufsichtsbehörde, in dem sie auch deren Angemessenheit bewerten. Die Kommission leitet diese Informationen an das Amt für künstliche Intelligenz zur Erörterung und etwaigen Abgabe von Empfehlungen weiter.

Änderungsantrag  562

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Die Kommission fördert den Erfahrungsaustausch zwischen den zuständigen nationalen Behörden.

entfällt

Änderungsantrag  563

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 7

 

Vorschlag der Kommission

Geänderter Text

(7) Die zuständigen nationalen Behörden können insbesondere auch Kleinanbietern mit Orientierung und Rat bei der Anwendung dieser Verordnung zur Seite stehen. Wenn zuständige nationale Behörden beabsichtigen, Orientierung und Rat in Bezug auf KI-Systeme in Bereichen zu geben, die unter andere Rechtsvorschriften der Union fallen, so sind gegebenenfalls die nach jenen Unionsvorschriften dafür zuständigen nationalen Behörden zu konsultieren. Mitgliedstaaten können auch eine zentrale Kontaktstelle für die Kommunikation mit den Akteuren einrichten.

(7) Die nationalen Aufsichtsbehörden können insbesondere auch KMU und Start-up-Unternehmen unter Berücksichtigung der Leitlinien und Empfehlungen des Amts für künstliche Intelligenz oder der Kommission mit Orientierung und Rat bei der Anwendung dieser Verordnung zur Seite stehen. Wenn die nationale Aufsichtsbehörde beabsichtigt, Orientierung und Rat in Bezug auf KI-Systeme in Bereichen zu geben, die unter andere Rechtsvorschriften der Union fallen, werden die Leitlinien in Absprache mit den zuständigen nationalen Behörden gegebenenfalls nach jenen Unionsvorschriften entworfen.

Änderungsantrag  564

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 8

 

Vorschlag der Kommission

Geänderter Text

(8) Soweit Organe, Einrichtungen und sonstige Stellen der Union in den Anwendungsbereich dieser Verordnung fallen, übernimmt der Europäische Datenschutzbeauftragte die Funktion der für ihre Beaufsichtigung zuständigen Behörde.

(8) Soweit Organe, Einrichtungen und sonstige Stellen der Union in den Anwendungsbereich dieser Verordnung fallen, übernimmt der Europäische Datenschutzbeauftragte die Funktion der für ihre Beaufsichtigung und Koordinierung zuständigen Behörde.

Änderungsantrag  565

 

Vorschlag für eine Verordnung

Artikel 59 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 59a

 

Mechanismus für die Zusammenarbeit zwischen nationalen Aufsichtsbehörden in Fällen, in denen zwei oder mehr Mitgliedstaaten betroffen sind

 

(1) Jede nationale Aufsichtsbehörde nimmt die ihr gemäß dieser Verordnung übertragenen Aufgaben und Befugnisse im Hoheitsgebiet ihres eigenen Mitgliedstaats wahr.

 

(2) In Fällen, in denen zwei oder mehr nationale Aufsichtsbehörden betroffen sind, gilt die nationale Aufsichtsbehörde des Mitgliedstaats, in dem der Verstoß begangen wurde, als federführende nationale Aufsichtsbehörde.

 

(3) In den in Absatz 2 genannten Fällen arbeiten die betreffenden Aufsichtsbehörden zusammen und tauschen zu gegebener Zeit alle zweckdienlichen Informationen aus. Die nationalen Aufsichtsbehörden arbeiten zusammen, um einen Konsens zu erzielen.

Änderungsantrag  566

 

Vorschlag für eine Verordnung

Titel VII

 

Vorschlag der Kommission

Geänderter Text

KAPITEL VII EU-DATENBANK FÜR EIGENSTÄNDIGE HOCHRISIKO-KI-SYSTEME

EU-DATENBANK FÜR HOCHRISIKO-KI-SYSTEME

Änderungsantrag  567

 

Vorschlag für eine Verordnung

Artikel 60 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

EU-Datenbank für eigenständige Hochrisiko-KI-Systeme

EU-Datenbank für Hochrisiko-KI-Systeme

Änderungsantrag  568

 

Vorschlag für eine Verordnung

Artikel 60 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Kommission errichtet und pflegt in Zusammenarbeit mit den Mitgliedstaaten eine EU-Datenbank mit den in Absatz 2 genannten Informationen über Hochrisiko-KI-Systeme nach Artikel 6 Absatz 2, die gemäß Artikel 51 registriert werden.

(1) Die Kommission errichtet und pflegt in Zusammenarbeit mit den Mitgliedstaaten eine öffentliche EU-Datenbank mit den in Absatz 2 und 2 a genannten Informationen über Hochrisiko-KI-Systeme nach Artikel 6 Absatz 2, die gemäß Artikel 51 registriert werden.

Änderungsantrag  569

 

Vorschlag für eine Verordnung

Artikel 60 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die in Anhang VIII aufgeführten Daten werden von den Anbietern in die EU-Datenbank eingegeben. Die Kommission leistet ihnen dabei technische und administrative Unterstützung.

(2) Die in Anhang VIII Abschnitt A aufgeführten Daten werden von den Anbietern in die EU-Datenbank eingegeben.

Änderungsantrag  570

 

Vorschlag für eine Verordnung

Artikel 60 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Die in Anhang VIII Abschnitt B aufgeführten Daten werden von den Betreibern, die Behörden oder Organe, Einrichtungen oder sonstige Stellen der Union sind oder in deren Namen handeln, sowie von Betreibern, die in Artikel 51 (1a) und (1b) genannte Unternehmen sind, in die EU-Datenbank eingegeben.

Änderungsantrag  571

 

Vorschlag für eine Verordnung

Artikel 60 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die in der EU-Datenbank gespeicherten Daten sind öffentlich zugänglich.

(3) Die in der EU-Datenbank gespeicherten Daten sind frei für die Öffentlichkeit verfügbar, benutzerfreundlich und zugänglich, einfach navigierbar und maschinenlesbar und enthalten strukturierte digitale Daten auf der Grundlage eines standardisierten Protokolls.

Änderungsantrag  572

 

Vorschlag für eine Verordnung

Artikel 60 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die EU-Datenbank enthält personenbezogene Daten nur, soweit dies für die Erfassung und Verarbeitung von Informationen gemäß dieser Verordnung erforderlich ist. Zu diesen Informationen gehören die Namen und Kontaktdaten der natürlichen Personen, die für die Registrierung des Systems verantwortlich sind und die rechtlich befugt sind, den Anbieter zu vertreten.

(4) Die EU-Datenbank enthält personenbezogene Daten nur, soweit dies für die Erfassung und Verarbeitung von Informationen gemäß dieser Verordnung erforderlich ist. Zu diesen Informationen gehören die Namen und Kontaktdaten der natürlichen Personen, die für die Registrierung des Systems verantwortlich sind und die rechtlich befugt sind, den Anbieter oder den Betreiber, der eine Behörde, ein Organ, eine Einrichtung, ein Amt oder eine Agentur der Union oder ein in deren Namen handelnder Betreiber oder ein in Artikel 51 (1a) und (1b) genanntes Unternehmen ist, zu vertreten.

Änderungsantrag  573

 

Vorschlag für eine Verordnung

Artikel 60 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Die Kommission gilt bezüglich der EU-Datenbank als die für die Verarbeitung verantwortliche Stelle. Sie sorgt auch für eine angemessene technische und administrative Unterstützung der Anbieter.

(5) Die Kommission gilt bezüglich der EU-Datenbank als die für die Verarbeitung verantwortliche Stelle. Sie sorgt auch für eine angemessene technische und administrative Unterstützung der Anbieter und Betreiber.

 

Die Datenbank erfüllt die Zugänglichkeitsanforderungen von Anhang I der Richtlinie (EU) 2019/882.

Änderungsantrag  574

 

Vorschlag für eine Verordnung

Artikel 61 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Mit dem System zur Beobachtung nach dem Inverkehrbringen müssen sich die einschlägigen von den Nutzern bereitgestellten oder aus anderen Quellen gesammelten Daten zur Leistung der Hochrisiko-KI-Systeme über deren gesamte Lebensdauer hinweg aktiv und systematisch erfassen, dokumentieren und analysieren lassen, und der Anbieter muss damit die fortdauernde Einhaltung der in Titel III Kapitel 2 genannten Anforderungen an die KI-Systeme bewerten können.

(2) Mit dem System zur Beobachtung nach dem Inverkehrbringen müssen sich die einschlägigen von den Betreibern bereitgestellten oder aus anderen Quellen gesammelten Daten zur Leistung der Hochrisiko-KI-Systeme über deren gesamte Lebensdauer hinweg aktiv und systematisch erfassen, dokumentieren und analysieren lassen, und der Anbieter muss damit die fortdauernde Einhaltung der in Titel III Kapitel 2 genannten Anforderungen an die KI-Systeme bewerten können. Soweit erforderlich, umfasst die Beobachtung nach dem Inverkehrbringen eine Analyse der Interaktion mit dem Umfeld anderer KI-Systeme, wozu auch andere Geräte und Software gehören, unter Berücksichtigung der Vorschriften aus Bereichen wie Datenschutz, Rechte des geistigen Eigentums und Wettbewerbsrecht.

Änderungsantrag  575

 

Vorschlag für eine Verordnung

Artikel 61 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Das System zur Beobachtung nach dem Inverkehrbringen muss auf einem entsprechenden Plan beruhen. Der Plan für die Beobachtung nach dem Inverkehrbringen ist Teil der in Anhang IV genannten technischen Dokumentation. Die Kommission erlässt einen Durchführungsrechtsakt, in dem sie die Bestimmungen für die Erstellung eines Musters des Plans für die Beobachtung nach dem Inverkehrbringen sowie die Liste der in den Plan aufzunehmenden Elemente detailliert festlegt.

(3) Das System zur Beobachtung nach dem Inverkehrbringen muss auf einem entsprechenden Plan beruhen. Der Plan für die Beobachtung nach dem Inverkehrbringen ist Teil der in Anhang IV genannten technischen Dokumentation. Die Kommission erlässt einen Durchführungsrechtsakt, in dem sie die Bestimmungen für die Erstellung eines Musters des Plans für die Beobachtung nach dem Inverkehrbringen sowie die Liste der in den Plan aufzunehmenden Elemente bis zum [zwölf Monate nach dem Datum des Inkrafttreten dieser Verordnung] detailliert festlegt.

Änderungsantrag  576

 

Vorschlag für eine Verordnung

Artikel 62 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Meldung schwerwiegender Vorfälle und Fehlfunktionen

Meldung schwerwiegender Vorfälle

Änderungsantrag  577

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Anbieter von in der Union in Verkehr gebrachten Hochrisiko-KI-Systemen, melden schwerwiegende Vorfälle oder Fehlfunktionen dieser Systeme, die einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte darstellen, den Marktüberwachungsbehörden des Mitgliedstaats, in dem der Vorfall oder der Verstoß stattgefunden hat.

(1) Anbieter und Betreiber, die schwerwiegende Vorfälle von in der Union in Verkehr gebrachten Hochrisiko-KI-Systemen identifiziert haben, melden schwerwiegende Vorfälle dieser Systeme, die einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte darstellen, der nationalen Aufsichtsbehörde des Mitgliedstaats, in dem der Vorfall oder der Verstoß stattgefunden hat.

Änderungsantrag  578

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 1 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Diese Meldung erfolgt unmittelbar, nachdem der Anbieter den kausalen Zusammenhang zwischen dem KI-System und dem Vorfall bzw. der Fehlfunktion oder die naheliegende Wahrscheinlichkeit eines solchen Zusammenhangs festgestellt hat, oder auf jeden Fall spätestens 15 Tage, nachdem der Anbieter Kenntnis von diesem schwerwiegenden Vorfall oder der Fehlfunktion erlangt hat.

Diese Meldung erfolgt unverzüglich, nachdem der Anbieter oder gegebenenfalls der Betreiber den kausalen Zusammenhang zwischen dem KI-System und dem Vorfall oder die naheliegende Wahrscheinlichkeit eines solchen Zusammenhangs festgestellt hat, oder auf jeden Fall spätestens 72 Stunden, nachdem der Anbieter oder gegebenenfalls der Betreiber Kenntnis von diesem schwerwiegenden Vorfall erlangt hat.

Änderungsantrag  579

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Nach Feststellung eines kausalen Zusammenhangs zwischen dem KI-System und dem schwerwiegenden Vorfall oder der naheliegenden Wahrscheinlichkeit eines solchen Zusammenhangs ergreift der Anbieter angemessene Korrekturmaßnahmen gemäß Artikel 21.

Änderungsantrag  580

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Sobald die Marktüberwachungsbehörde eine Meldung über einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte erhält, unterrichtet sie die in Artikel 64 Absatz 3 genannten nationalen Behörden oder öffentlichen Stellen. Zur leichteren Einhaltung der Pflichten nach Absatz 1 arbeitet die Kommission entsprechende Leitlinien aus. Diese Leitlinien werden spätestens 12 Monate nach dem Inkrafttreten dieser Verordnung veröffentlicht.

(2) Sobald die nationale Aufsichtsbehörde eine Meldung über einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte erhält, unterrichtet sie die in Artikel 64 Absatz 3 genannten nationalen Behörden oder öffentlichen Stellen. Zur leichteren Einhaltung der Pflichten nach Absatz 1 arbeitet die Kommission entsprechende Leitlinien aus. Diese Leitlinien werden bis zum [Inkrafttreten dieser Verordnung] veröffentlicht und regelmäßig bewertet.

Änderungsantrag  581

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Die nationale Aufsichtsbehörde ergreift innerhalb von sieben Tagen nach Eingang der in Absatz 1 genannten Meldung geeignete Maßnahmen. Findet der Verstoß in anderen Mitgliedstaaten statt oder ist damit zu rechnen, dass er in anderen Mitgliedstaaten stattfindet, unterrichtet die nationale Aufsichtsbehörde das Amt für künstliche Intelligenz und die jeweiligen nationalen Aufsichtsbehörden dieser Mitgliedstaaten.

Änderungsantrag  582

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Bei Hochrisiko-KI-Systemen nach Anhang III Nummer 5 Buchstabe b, die von Kreditinstituten im Sinne der Richtlinie 2013/36/EU in Verkehr gebracht oder in Betrieb genommen wurden, sowie bei Hochrisiko-KI-Systemen, bei denen es sich um Sicherheitskomponenten von Produkten handelt, die unter die Verordnung (EU) 2017/745 und die Verordnung (EU) 2017/746 fallen, oder die selbst solche Produkte sind, müssen nur jene schwerwiegenden Vorfälle oder Fehlfunktionen gemeldet werden, die einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte darstellen.

(3) Bei Hochrisiko-KI-Systemen nach Anhang III, die von Anbietern in Verkehr gebracht oder in Betrieb genommen wurden, die Rechtsinstrumenten der Union mit gleichwertigen Meldepflichten wie jenen in dieser Verordnung festgesetzten unterliegen, wird die Meldung schwerwiegender Vorfälle, die nach dem Unionsrecht einen Verstoß gegen die Grundrechte darstellen, auf die nationale Aufsichtsbehörde übertragen.

Änderungsantrag  583

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Die nationalen Aufsichtsbehörden melden dem Amt für künstliche Intelligenz jährlich die schwerwiegenden Vorfälle, die ihnen gemäß diesem Artikel gemeldet werden.

Änderungsantrag  584

 

Vorschlag für eine Verordnung

Artikel 63 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Die Verordnung (EU) 2019/1020 gilt für KI-Systeme, die unter diese Verordnung fallen. Für die Zwecke einer wirksamen Durchsetzung dieser Verordnung gilt jedoch Folgendes:

(1) Die Verordnung (EU) 2019/1020 gilt für KI-Systeme und Basismodelle, die unter diese Verordnung fallen. Für die Zwecke einer wirksamen Durchsetzung dieser Verordnung gilt jedoch Folgendes:

Änderungsantrag  585

 

Vorschlag für eine Verordnung

Artikel 63 – Absatz 1 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) Die nationalen Aufsichtsbehörden fungieren im Rahmen dieser Verordnung als Marktaufsichtsbehörden und haben die gleichen Befugnisse und Pflichten wie Marktaufsichtsbehörden gemäß der Verordnung (EU) 2019/1020.

Änderungsantrag  586

 

Vorschlag für eine Verordnung

Artikel 63 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die nationale Aufsichtsbehörde erstattet der Kommission regelmäßig über die Ergebnisse ihrer jeweiligen Marktüberwachungstätigkeiten Bericht. Die nationale Aufsichtsbehörde meldet der Kommission und den einschlägigen nationalen Wettbewerbsbehörden unverzüglich alle Informationen, die sie im Verlauf ihrer Marktüberwachungstätigkeiten erlangt hat und die für die Anwendung von Unionsrecht auf Wettbewerbsregeln von Interesse sein könnten.

(2) Die nationale Aufsichtsbehörde erstattet der Kommission und dem Amt für künstliche Intelligenz jährlich über die Ergebnisse ihrer jeweiligen Marktüberwachungstätigkeiten Bericht. Die nationale Aufsichtsbehörde meldet der Kommission und den einschlägigen nationalen Wettbewerbsbehörden unverzüglich alle Informationen, die sie im Verlauf ihrer Marktüberwachungstätigkeiten erlangt hat und die für die Anwendung von Unionsrecht auf Wettbewerbsregeln von Interesse sein könnten.

Änderungsantrag  587

 

Vorschlag für eine Verordnung

Artikel 63 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Zum Zweck einer wirksamen Durchsetzung dieser Verordnung können die nationalen Aufsichtsbehörden

 

a) unangekündigte Vor-Ort- und Ferninspektionen von Hochrisiko-KI-Systemen durchführen;

 

b) Stichproben von Hochrisiko-KI-Systemen nehmen, auch durch Ferninspektionen, um die KI-Systeme zurückzuentwickeln und Beweise für die Nichteinhaltung der Vorschriften zu sammeln.

Änderungsantrag  588

 

Vorschlag für eine Verordnung

Artikel 63 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Für die in Absatz 1 Buchstabe a genannten KI-Systeme, sofern diese Systeme für Strafverfolgungszwecke nach Anhang III Nummern 6 und 7 eingesetzt werden, benennen die Mitgliedstaaten für die Zwecke dieser Verordnung als Marktüberwachungsbehörden entweder die für den Datenschutz nach der Richtlinie (EU) 2016/680 oder der Verordnung (EU) 2016/679 zuständigen Aufsichtsbehörden oder die zuständigen nationalen Behörden, die die Tätigkeiten der Behörden im Bereich der Strafverfolgung, Einwanderung oder Asyl, die solche Systeme in Verkehr bringen oder einsetzen, beaufsichtigen.

(5) Für KI-Systeme, die für Strafverfolgungszwecke eingesetzt werden, benennen die Mitgliedstaaten für die Zwecke dieser Verordnung als Marktüberwachungsbehörden die für den Datenschutz nach der Richtlinie (EU) 2016/680 zuständigen Aufsichtsbehörden.

Änderungsantrag  589

 

Vorschlag für eine Verordnung

Artikel 63 – Absatz 7

 

Vorschlag der Kommission

Geänderter Text

(7) Die Mitgliedstaaten erleichtern die Koordinierung zwischen den auf der Grundlage dieser Verordnung benannten Marktüberwachungsbehörden und anderen einschlägigen nationalen Behörden oder Stellen, die die Anwendung der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union oder sonstigen Unionsrechts überwachen, das für die in Anhang III aufgeführten Hochrisiko-KI-Systeme relevant sein könnte.

(7) Die auf der Grundlage dieser Verordnung benannten nationalen Aufsichtsbehörden stimmen sich mit anderen einschlägigen nationalen Behörden oder Stellen ab, die die Anwendung der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union oder sonstiger Rechtsvorschriften der Union überwachen, die für die in Anhang III aufgeführten Hochrisiko-KI-Systeme relevant sein könnten.

Änderungsantrag  590

 

Vorschlag für eine Verordnung

Artikel 64 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Im Zusammenhang mit ihren Tätigkeiten erhalten die Marktüberwachungsbehörden uneingeschränkten Zugang zu den von den Anbietern genutzten Trainings-, Validierungs- und Testdatensätzen, auch über Anwendungsprogrammierschnittstellen (API) oder sonstige für den Fernzugriff geeignete technische Mittel und Instrumente.

(1) Im Zusammenhang mit ihren Tätigkeiten und auf ihren begründeten Antrag erhält die nationale Aufsichtsbehörde oder gegebenenfalls der Betreiber über für den Fernzugriff geeignete technische Mittel und Instrumente uneingeschränkten Zugang zu den von den Anbietern genutzten Trainings-, Validierungs- und Testdatensätzen, die für den Zweck ihres Antrags relevant und unbedingt erforderlich sind.

Änderungsantrag  591

 

Vorschlag für eine Verordnung

Artikel 64 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Sofern dies für die Bewertung der Konformität der Hochrisiko-KI-Systeme mit den in Titel III Kapitel 2 festgelegten Anforderungen notwendig ist, wird der Marktüberwachungsbehörde auf deren begründetes Verlangen Zugang zum Quellcode des KI-Systems gewährt.

(2) Sofern dies für die Bewertung der Konformität der Hochrisiko-KI-Systeme mit den in Titel III Kapitel 2 festgelegten Anforderungen notwendig ist, und nachdem alle anderen sinnvollen Möglichkeiten der Überprüfung der Konformität einschließlich Absatz 1 ausgeschöpft sind oder sich als unzureichend erwiesen haben, wird der nationalen Aufsichtsbehörde auf deren begründetes Verlangen Zugang zu den Trainingsmodellen und trainierten Modellen des KI-Systems, einschließlich seiner relevanten Modellparameter, gewährt. Alle nach Artikel 70 erlangten Informationen werden als vertrauliche Informationen behandelt und unterliegen dem geltenden Unionsrecht zum Schutz des geistigen Eigentums und von Geschäftsgeheimnissen und werden nach Abschluss der Untersuchung, für die die Informationen angefordert wurden, gelöscht.

Änderungsantrag  592

 

Vorschlag für eine Verordnung

Artikel 64 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Absatz 1 und 2 lassen die Verfahrensrechte des betreffenden Akteurs nach Artikel 18 der Verordnung (EU) 2019/1020 unberührt.

Änderungsantrag  593

 

Vorschlag für eine Verordnung

Artikel 64 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Nationale Behörden oder öffentliche Stellen, die die Einhaltung des Unionsrechts zum Schutz der Grundrechte in Bezug auf den Einsatz der in Anhang III aufgeführten Hochrisiko-KI-Systeme überwachen oder durchsetzen, sind befugt, alle auf der Grundlage dieser Verordnung erstellten oder geführten Unterlagen anzufordern und einzusehen, sofern der Zugang zu diesen Unterlagen für die Ausübung ihres Auftrags im Rahmen ihrer Befugnisse notwendig ist. Die jeweilige Behörde oder öffentliche Stelle unterrichtet die Marktüberwachungsbehörde des betreffenden Mitgliedstaats von jedem diesbezüglichen Verlangen.

(3) Nationale Behörden oder öffentliche Stellen, die die Einhaltung des Unionsrechts zum Schutz der Grundrechte in Bezug auf den Einsatz der in Anhang III aufgeführten Hochrisiko-KI-Systeme überwachen oder durchsetzen, sind befugt, alle auf der Grundlage dieser Verordnung erstellten oder geführten Unterlagen anzufordern und einzusehen, sofern der Zugang zu diesen Unterlagen für die Ausübung ihres Auftrags im Rahmen ihrer Befugnisse notwendig ist. Die jeweilige Behörde oder öffentliche Stelle unterrichtet die nationale Aufsichtsbehörde des betreffenden Mitgliedstaats von jedem diesbezüglichen Verlangen.

Änderungsantrag  594

 

Vorschlag für eine Verordnung

Artikel 64 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Bis drei Monate nach dem Inkrafttreten dieser Verordnung muss jeder Mitgliedstaat die in Absatz 3 genannten Behörden oder öffentlichen Stellen benannt haben und deren Liste auf einer öffentlich zugänglichen Website der nationalen Aufsichtsbehörde veröffentlichen. Die Mitgliedstaaten übermitteln die Liste der Kommission und allen anderen Mitgliedstaaten und sorgen dafür, dass die Liste stets aktuell bleibt.

(4) Bis drei Monate nach dem Inkrafttreten dieser Verordnung muss jeder Mitgliedstaat die in Absatz 3 genannten Behörden oder öffentlichen Stellen benannt haben und deren Liste auf einer öffentlich zugänglichen Website der nationalen Aufsichtsbehörde veröffentlichen. Die nationalen Aufsichtsbehörden übermitteln die Liste der Kommission, dem Amt für künstliche Intelligenz und allen anderen nationalen Aufsichtsbehörden und sorgen dafür, dass die Liste stets aktuell bleibt. Die Kommission veröffentlicht auf einer dafür eigens angelegten Website die Liste aller von den Mitgliedstaaten gemäß diesem Artikel benannten zuständigen Behörden.

Änderungsantrag  595

 

Vorschlag für eine Verordnung

Artikel 64 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Sollte die in Absatz 3 genannte Dokumentation nicht ausreichen, um feststellen zu können, ob ein Verstoß gegen das Unionsrecht zum Schutz der Grundrechte vorliegt, kann die in Absatz 3 genannte Behörde oder öffentliche Stelle bei der Marktüberwachungsbehörde einen begründeten Antrag auf Durchführung technischer Tests des Hochrisiko-KI-Systems stellen. Die Marktüberwachungsbehörde führt den Test unter enger Einbeziehung der beantragenden Behörde oder öffentlichen Stelle innerhalb eines angemessenen Zeitraums nach Eingang des Antrags durch.

(5) Sollte die in Absatz 3 genannte Dokumentation nicht ausreichen, um feststellen zu können, ob ein Verstoß gegen das Unionsrecht zum Schutz der Grundrechte vorliegt, kann die in Absatz 3 genannte Behörde oder öffentliche Stelle bei der nationalen Aufsichtsbehörde einen begründeten Antrag auf Durchführung technischer Tests des Hochrisiko-KI-Systems stellen. Die nationale Aufsichtsbehörde führt den Test unter enger Einbeziehung der beantragenden Behörde oder öffentlichen Stelle innerhalb eines angemessenen Zeitraums nach Eingang des Antrags durch.

Änderungsantrag  596

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Als KI-Systeme, die ein Risiko bergen, gelten Produkte, mit denen ein Risiko im Sinne des Artikels 3 Nummer 19 der Verordnung (EU) 2019/1020 verbunden ist, sofern es sich dabei um Risiken für die Gesundheit oder Sicherheit oder den Schutz der Grundrechte von Personen handelt.

(1) Als KI-Systeme, die ein Risiko bergen, gelten KI-Systeme, die die Gesundheit und Sicherheit, die Grundrechte von Personen im Allgemeinen, auch am Arbeitsplatz, den Verbraucherschutz, die Umwelt, die öffentliche Sicherheit oder Demokratie oder Rechtsstaatlichkeit und andere öffentliche Interessen, die durch die geltenden Harmonisierungsrechtsvorschriften der Union geschützt sind, in einem Maße beeinträchtigen können, das über das hinausgeht, was im Hinblick auf den beabsichtigten Zweck oder unter den normalen oder vernünftigerweise vorhersehbaren Bedingungen für die Nutzung des betreffenden Systems, einschließlich der Dauer der Nutzung und gegebenenfalls der Anforderungen an Inbetriebnahme, Installation und Wartung, als vernünftig und annehmbar gilt.

Änderungsantrag  597

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Hat die Marktüberwachungsbehörde eines Mitgliedstaats hinreichende Gründe zu der Annahme, dass ein KI-System ein Risiko im Sinne des Absatzes 1 birgt, prüft sie das betreffende KI-System im Hinblick auf die Erfüllung aller in dieser Verordnung festgelegten Anforderungen und Pflichten. Bestehen Risiken für den Schutz von Grundrechten, unterrichtet die Marktüberwachungsbehörde auch die in Artikel 64 Absatz 3 genannten einschlägigen nationalen Behörden oder öffentlichen Stellen. Die betreffenden Akteure müssen im notwendigen Umfang mit den Marktüberwachungsbehörden und den in Artikel 64 Absatz 3 genannten anderen Behörden oder öffentlichen Stellen zusammenarbeiten.

(2) Hat die nationale Aufsichtsbehörde eines Mitgliedstaats hinreichende Gründe zu der Annahme, dass ein KI-System ein Risiko im Sinne des Absatzes 1 birgt, prüft sie das betreffende KI-System im Hinblick auf die Erfüllung aller in dieser Verordnung festgelegten Anforderungen und Pflichten. Bestehen Risiken für die Grundrechte, unterrichtet die nationale Aufsichtsbehörde auch umgehend die in Artikel 64 Absatz 3 genannten einschlägigen nationalen Behörden oder öffentlichen Stellen und arbeitet uneingeschränkt mit ihnen zusammen. Dort wo hinreichender Grund zu der Annahme besteht, dass ein KI-System die Schutzbedürftigkeit von gefährdeten Gruppe ausnutzt oder ihre Rechte absichtlich oder unabsichtlich verletzt, ist die nationale Aufsichtsbehörde verpflichtet, die Gestaltungsziele, die Dateneingabe, die Modellauswahl, die Umsetzung und die Ergebnisse des KI-Systems zu untersuchen. Die betreffenden Akteure müssen im notwendigen Umfang mit der nationalen Aufsichtsbehörde und den in Artikel 64 Absatz 3 genannten anderen Behörden oder öffentlichen Stellen zusammenarbeiten.

Änderungsantrag  598

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 2 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Stellt die Marktüberwachungsbehörde im Verlauf dieser Prüfung fest, dass das KI-System die in dieser Verordnung festgelegten Anforderungen und Pflichten nicht erfüllt, fordert sie den betreffenden Akteur unverzüglich auf, alle von ihr möglicherweise vorgegebenen Korrekturmaßnahmen zu ergreifen, die geeignet sind, die Konformität des KI-Systems wiederherzustellen, das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist zurückzurufen.

Stellt die nationale Aufsichtsbehörde oder gegebenenfalls die in Artikel 64 (3) genannte nationale Behörde im Verlauf dieser Prüfung fest, dass das KI-System die in dieser Verordnung festgelegten Anforderungen und Pflichten nicht erfüllt, fordert sie den betreffenden Akteur unverzüglich auf, alle von ihr möglicherweise vorgegebenen Korrekturmaßnahmen zu ergreifen, die geeignet sind, die Konformität des KI-Systems wiederherzustellen, das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist und in jedem Falle innerhalb von fünfzehn Werktagen oder wie in den einschlägigen Harmonisierungsrechtsvorschriften der Union vorgesehen zurückzurufen.

Änderungsantrag  599

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 2 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Die Marktüberwachungsbehörde unterrichtet die betreffende notifizierte Stelle entsprechend. Artikel 18 der Verordnung (EU) 2019/1020 gilt für die in Unterabsatz 2 genannten Maßnahmen.

Die nationale Aufsichtsbehörde unterrichtet die betreffende notifizierte Stelle entsprechend. Artikel 18 der Verordnung (EU) 2019/1020 gilt für die in Unterabsatz 2 genannten Maßnahmen.

Änderungsantrag  600

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Gelangt die Marktüberwachungsbehörde zu der Auffassung, dass die Nichtkonformität nicht auf ihr nationales Hoheitsgebiet beschränkt ist, unterrichtet sie die Kommission und die anderen Mitgliedstaaten über die Ergebnisse der Prüfung und über die Maßnahmen, zu denen sie den Akteur aufgefordert hat.

(3) Gelangt die nationale Aufsichtsbehörde zu der Auffassung, dass die Nichtkonformität nicht auf ihr nationales Hoheitsgebiet beschränkt ist, unterrichtet sie die Kommission, das Amt für künstliche Intelligenz und die nationalen Aufsichtsbehörden der anderen Mitgliedstaaten unverzüglich über die Ergebnisse der Prüfung und über die Maßnahmen, zu denen sie den Akteur aufgefordert hat.

Änderungsantrag  601

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Ergreift der Akteur in Bezug auf sein KI-System keine geeigneten Korrekturmaßnahmen innerhalb der in Absatz 2 genannten Frist, trifft die Marktüberwachungsbehörde alle geeigneten vorläufigen Maßnahmen, um die Bereitstellung des KI-Systems auf ihrem nationalen Markt zu verbieten oder einzuschränken, das Produkt von diesem Markt zu nehmen oder es zurückzurufen. Diese Behörde unterrichtet die Kommission und die anderen Mitgliedstaaten unverzüglich über diese Maßnahmen.

(5) Ergreift der Akteur in Bezug auf sein KI-System keine geeigneten Korrekturmaßnahmen innerhalb der in Absatz 2 genannten Frist, trifft die nationale Aufsichtsbehörde alle geeigneten vorläufigen Maßnahmen, um die Bereitstellung des KI-Systems auf ihrem nationalen Markt oder die Inbetriebnahme zu verbieten oder einzuschränken, das KI-System von diesem Markt zu nehmen oder es zurückzurufen. Diese Behörde unterrichtet die Kommission, das Amt für künstliche Intelligenz und die nationalen Aufsichtsbehörden der anderen Mitgliedstaaten umgehend über diese Maßnahmen.

Änderungsantrag  602

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 6 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(6) Die Unterrichtung nach Absatz 5 enthält alle vorliegenden Angaben, insbesondere die für die Identifizierung des nicht konformen Systems notwendigen Daten, den Ursprung des KI-Systems, die Art der vermuteten Nichtkonformität und das sich daraus ergebende Risiko, die Art und Dauer der ergriffenen nationalen Maßnahmen und die von dem betreffenden Akteur vorgebrachten Argumente. Die Marktüberwachungsbehörden geben insbesondere an, ob die Nichtkonformität eine oder mehrere der folgenden Ursachen hat:

(6) Die Unterrichtung nach Absatz 5 enthält alle vorliegenden Angaben, insbesondere die für die Identifizierung des nicht konformen Systems notwendigen Daten, den Ursprung des KI-Systems und die Lieferkette, die Art der vermuteten Nichtkonformität und das sich daraus ergebende Risiko, die Art und Dauer der ergriffenen nationalen Maßnahmen und die von dem betreffenden Akteur vorgebrachten Argumente. Die nationale Aufsichtsbehörde gibt insbesondere an, ob die Nichtkonformität eine oder mehrere der folgenden Ursachen hat:

Änderungsantrag  603

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 6 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Nichterfüllung der in Titel III Kapitel 2 aufgeführten Anforderungen durch das KI-System;

a) Nichterfüllung der in dieser Verordnung aufgeführten Anforderungen durch das Hochrisiko-KI-System;

Änderungsantrag  604

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 6 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) Missachtung des Verbots der in Artikel 5 genannten KI-Praktiken;

Änderungsantrag  605

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 6 – Buchstabe b b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bb) Nichterfüllung der Bestimmungen von Artikel 52.

Änderungsantrag  606

 

Vorschlag für eine Verordnung

Artikel 65– Absatz 7

 

Vorschlag der Kommission

Geänderter Text

(7) Die anderen Marktüberwachungsbehörden, die kein Verfahren eingeleitet haben, unterrichten unverzüglich die Kommission und die anderen Mitgliedstaaten von jeglichen Maßnahmen und etwaigen ihnen vorliegenden zusätzlichen Erkenntnissen über die Nichtkonformität des betreffenden KI-Systems sowie über ihre Einwände, falls sie die ihnen mitgeteilt nationale Maßnahme ablehnen.

(7) Die anderen nationalen Aufsichtsbehörden, die kein Verfahren eingeleitet haben, unterrichten unverzüglich die Kommission, das Amt für künstliche Intelligenz und die anderen Mitgliedstaaten von jeglichen Maßnahmen und etwaigen ihnen vorliegenden zusätzlichen Erkenntnissen über die Nichtkonformität des betreffenden KI-Systems sowie über ihre Einwände, falls sie die ihnen mitgeteilt nationale Maßnahme ablehnen.

Änderungsantrag  607

 

Vorschlag für eine Verordnung

Artikel 65– Absatz 8

 

Vorschlag der Kommission

Geänderter Text

(8) Erhebt weder ein Mitgliedstaat noch die Kommission innerhalb von drei Monaten nach Eingang der in Absatz 5 genannten Unterrichtung Einwände gegen die von einem Mitgliedstaat erlassene vorläufige Maßnahme, so gilt diese Maßnahme als gerechtfertigt. Die Verfahrensrechte des betreffenden Akteurs nach Artikel 18 der Verordnung (EU) 2019/1020 bleiben hiervon unberührt.

(8) Erhebt weder eine nationale Aufsichtsbehörde eines Mitgliedstaates noch die Kommission innerhalb von drei Monaten nach Eingang der in Absatz 5 genannten Unterrichtung Einwände gegen die von einer nationalen Aufsichtsbehörde eines anderen Mitgliedstaates erlassene vorläufige Maßnahme, so gilt diese Maßnahme als gerechtfertigt. Die Verfahrensrechte des betreffenden Akteurs nach Artikel 18 der Verordnung (EU) 2019/1020 bleiben hiervon unberührt. Die im ersten Satz dieses Absatzes genannte Frist wird bei Missachtung des Verbots der in Artikel 5 genannten KI-Praktiken auf dreißig Tage gekürzt.

Änderungsantrag  608

 

Vorschlag für eine Verordnung

Artikel 65– Absatz 9

 

Vorschlag der Kommission

Geänderter Text

(9) Die Marktüberwachungsbehörden aller Mitgliedstaaten tragen dafür Sorge, dass geeignete einschränkende Maßnahmen in Bezug auf das betreffende Produkt ergriffen werden, indem sie beispielsweise das Produkt unverzüglich von ihrem Markt nehmen.

(9) Die nationalen Aufsichtsbehörden aller Mitgliedstaaten tragen dafür Sorge, dass geeignete einschränkende Maßnahmen in Bezug auf das betreffende KI-System ergriffen werden, indem sie beispielsweise das KI-System unverzüglich von ihrem Markt nehmen.

Änderungsantrag  609

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 9 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(9a) Die nationalen Aufsichtsbehörden erstatten dem Amt für künstliche Intelligenz jährlich Bericht über die Anwendung verbotener Praktiken, die im Laufe des Jahres vorgekommen sind, sowie über die zur Abwendung oder Minderung der Risiken gemäß diesem Artikel ergriffenen Maßnahmen.

Änderungsantrag  610

 

Vorschlag für eine Verordnung

Artikel 66 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Erhebt ein Mitgliedstaat innerhalb von drei Monaten nach Eingang der in Artikel 65 Absatz 5 genannten Unterrichtung Einwände gegen eine von einem anderen Mitgliedstaat getroffene Maßnahme oder ist die Kommission der Ansicht, dass die Maßnahme mit dem Unionsrecht unvereinbar ist, so nimmt die Kommission unverzüglich Konsultationen mit dem betreffenden Mitgliedstaat oder Akteur auf und prüft die nationale Maßnahme. Anhand der Ergebnisse dieser Prüfung entscheidet die Kommission innerhalb von neun Monaten nach Eingang der in Artikel 65 Absatz 5 genannten Unterrichtung, ob die nationale Maßnahme gerechtfertigt ist oder nicht und teilt dem betreffenden Mitgliedstaat ihre Entscheidung mit.

(1) Erhebt ein Mitgliedstaat innerhalb von drei Monaten nach Eingang der in Artikel 65 Absatz 5 genannten Unterrichtung bzw. innerhalb von 30 Tagen im Falle der Missachtung des Verbots der in Artikel 5 genannten KI-Praktiken Einwände gegen eine von der nationalen Aufsichtsbehörde eines anderen Mitgliedstaats getroffene Maßnahme oder ist die Kommission der Ansicht, dass die Maßnahme mit dem Unionsrecht unvereinbar ist, so nimmt die Kommission unverzüglich Konsultationen mit der nationalen Aufsichtsbehörde des betreffenden Mitgliedstaats oder Akteur auf und prüft die nationale Maßnahme. Anhand der Ergebnisse dieser Prüfung entscheidet die Kommission innerhalb von drei Monaten bzw. 60 Tagen im Falle der Missachtung des Verbots der in Artikel 5 genannten KI-Praktiken nach Eingang der in Artikel 65 Absatz 5 genannten Unterrichtung, ob die nationale Maßnahme gerechtfertigt ist oder nicht und teilt der nationalen Aufsichtsbehörde des betreffenden Mitgliedstaats ihre Entscheidung mit. Die Kommission unterrichtet auch alle übrigen nationalen Aufsichtsbehörden über diese Entscheidung.

Änderungsantrag  611

 

Vorschlag für eine Verordnung

Artikel 66 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Gilt die nationale Maßnahme als gerechtfertigt, so ergreifen alle Mitgliedstaaten die erforderlichen Maßnahmen, damit das nichtkonforme KI-System von ihrem Markt genommen wird, und unterrichten die Kommission darüber. Gilt die nationale Maßnahme als nicht gerechtfertigt, nimmt der betreffende Mitgliedstaat die Maßnahme zurück.

(2) Gilt die nationale Maßnahme als gerechtfertigt, so ergreifen alle auf der Grundlage dieser Verordnung benannten nationalen Aufsichtsbehörden die erforderlichen Maßnahmen, damit das nichtkonforme KI-System unverzüglich von ihrem Markt genommen wird, und unterrichten die Kommission und das Amt für künstliche Intelligenz darüber. Gilt die nationale Maßnahme als nicht gerechtfertigt, nimmt die nationale Aufsichtsbehörde des betreffenden Mitgliedstaats die Maßnahme zurück.

Änderungsantrag  612

 

Vorschlag für eine Verordnung

Artikel 66 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 66a

 

Gemeinsame Untersuchungen

 

Hat eine nationale Aufsichtsbehörde Grund zu der Annahme, dass es sich bei dem Verstoß eines Anbieters oder eines Betreibers eines Hochrisiko-KI-Systems oder Basismodells gegen diese Verordnung um einen weitverbreiteten Verstoß mit unionsweiter Dimension handelt, der mindestens 45 Millionen Personen in der EU betrifft oder betreffen könnte, unterrichtet die betreffende nationale Aufsichtsbehörde das Amt für künstliche Intelligenz und kann die nationalen Aufsichtsbehörden der Mitgliedstaaten, in denen der Verstoß begangen wurde, auffordern, eine gemeinsame Untersuchung einzuleiten. Das Amt für künstliche Intelligenz sorgt für eine zentrale Koordinierung der gemeinsamen Untersuchung. Die Untersuchungsbefugnisse fallen in die Zuständigkeit der nationalen Aufsichtsbehörden.

Änderungsantrag  613

 

Vorschlag für eine Verordnung

Artikel 67 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Stellt die Marktüberwachungsbehörde nach der gemäß Artikel 65 durchgeführten Prüfung fest, dass ein KI-System dieser Verordnung entspricht, jedoch trotzdem ein Risiko für die Gesundheit oder Sicherheit von Personen, für die Einhaltung der Pflichten aus dem Unionsrecht oder dem nationalen Recht zum Schutz der Grundrechte oder für andere Aspekte des Schutzes öffentlicher Interessen darstellt, fordert sie den betreffenden Akteur auf, alle geeigneten und von ihr möglicherweise vorgegebenen Maßnahmen zu treffen, damit das betreffende KI-System zum Zeitpunkt des Inverkehrbringens oder der Inbetriebnahme dieses Risiko nicht mehr birgt, oder das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist zurückzurufen.

(1) Stellt die nationale Aufsichtsbehörde nach der gemäß Artikel 65 durchgeführten Prüfung in uneingeschränkter Zusammenarbeit mit der in Artikel 64 Absatz 3 genannten betreffenden nationalen Behörde fest, dass ein KI-System dieser Verordnung entspricht, jedoch trotzdem ein Risiko für die Gesundheit oder Sicherheit von Personen, für die Einhaltung der Pflichten aus dem Unionsrecht oder dem nationalen Recht zum Schutz der Grundrechte oder der Umwelt oder der Demokratie und Rechtsstaatlichkeit oder für andere Aspekte des Schutzes öffentlicher Interessen darstellt, fordert sie den betreffenden Akteur auf, alle geeigneten und von ihr möglicherweise vorgegebenen Maßnahmen zu treffen, damit das betreffende KI-System zum Zeitpunkt des Inverkehrbringens oder der Inbetriebnahme dieses Risiko nicht mehr birgt.

Änderungsantrag  614

 

Vorschlag für eine Verordnung

Artikel 67 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Der Anbieter oder andere einschlägige Akteure müssen dafür sorgen, dass in Bezug auf alle betroffenen KI-Systeme, die sie in der Union in Verkehr gebracht haben, innerhalb der Frist, die von der Marktüberwachungsbehörde des in Absatz 1 genannten Mitgliedstaats vorgegeben wurde, Korrekturmaßnahmen ergriffen werden.

(2) Der Anbieter oder andere einschlägige Akteure müssen dafür sorgen, dass in Bezug auf alle betroffenen KI-Systeme, die sie in der Union in Verkehr gebracht haben, innerhalb der Frist, die von der nationalen Aufsichtsbehörde des in Absatz 1 genannten Mitgliedstaats vorgegeben wurde, Korrekturmaßnahmen ergriffen werden.

Änderungsantrag  615

 

Vorschlag für eine Verordnung

Artikel 67 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Versäumen es der Anbieter oder andere einschlägige Akteure, die in Absatz 2 genannten Korrekturmaßnahmen zu ergreifen, und stellt das KI-System weiterhin ein Risiko im Sinne von Absatz 1 dar, kann die nationale Aufsichtsbehörde verlangen, dass der einschlägige Betreiber das KI-System innerhalb einer angemessenen, der Art des Risikos entsprechenden Frist vom Markt nimmt oder zurückruft.

Änderungsantrag  616

 

Vorschlag für eine Verordnung

Artikel 67 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Der Mitgliedstaat unterrichtet die Kommission und die übrigen Mitgliedstaaten unverzüglich davon. Diese Unterrichtung enthält alle vorliegenden Angaben, insbesondere die für die Identifizierung des betreffenden KI-Systems notwendigen Daten, den Ursprung und die Lieferkette des KI-Systems, die Art des sich daraus ergebenden Risikos sowie die Art und Dauer der ergriffenen nationalen Maßnahmen.

(3) Die nationale Aufsichtsbehörde unterrichtet die Kommission, das Amt für künstliche Intelligenz und die übrigen nationalen Aufsichtsbehörden unverzüglich davon. Diese Unterrichtung enthält alle vorliegenden Angaben, insbesondere die für die Identifizierung des betreffenden KI-Systems notwendigen Daten, den Ursprung und die Lieferkette des KI-Systems, die Art des sich daraus ergebenden Risikos sowie die Art und Dauer der ergriffenen nationalen Maßnahmen.

Änderungsantrag  617

 

Vorschlag für eine Verordnung

Artikel 67 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Kommission nimmt unverzüglich mit den Mitgliedstaaten und den betreffenden Akteuren Konsultationen auf und prüft die ergriffenen nationalen Maßnahmen. Anhand der Ergebnisse dieser Prüfung entscheidet die Kommission, ob die Maßnahme gerechtfertigt ist oder nicht, und schlägt, falls erforderlich, geeignete Maßnahmen vor.

(4) Die Kommission nimmt in Absprache mit dem Amt für künstliche Intelligenz unverzüglich mit den betroffenen nationalen Aufsichtsbehörden und den betreffenden Akteuren Konsultationen auf und prüft die ergriffenen nationalen Maßnahmen. Anhand der Ergebnisse dieser Prüfung entscheidet das Amt für künstliche Intelligenz, ob die Maßnahme gerechtfertigt ist oder nicht, und schlägt, falls erforderlich, geeignete Maßnahmen vor.Anhand der Ergebnisse dieser Prüfung entscheidet der Ausschuss, ob die Maßnahme gerechtfertigt ist oder nicht, und schlägt, falls erforderlich, geeignete Maßnahmen vor.

Änderungsantrag  618

 

Vorschlag für eine Verordnung

Artikel 67 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Die Kommission richtet diese Entscheidung an die Mitgliedstaaten.

(5) Die Kommission teilt diese Entscheidung in Absprache mit dem Amt für künstliche Intelligenz umgehend den nationalen Aufsichtsbehörden der betroffenen Mitgliedstaaten und den einschlägigen Akteuren mit. Sie unterrichtet auch alle anderen nationalen Aufsichtsbehörden über die Entscheidung.

Änderungsantrag  619

 

Vorschlag für eine Verordnung

Artikel 67 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Die Kommission verabschiedet Leitlinien, die die zuständigen nationalen Behörden dabei unterstützen sollen, ähnliche Sachverhalte, die in anderen KI-Systemen auftreten, zu erkennen und gegebenenfalls zu beheben.

Änderungsantrag  620

 

Vorschlag für eine Verordnung

Artikel 68 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Gelangt die Marktüberwachungsbehörde eines Mitgliedstaats zu einer der folgenden Feststellungen, fordert sie den jeweiligen Anbieter auf, die betreffende Nichtkonformität zu beheben:

(1) Gelangt die nationale Aufsichtsbehörde eines Mitgliedstaats zu einer der folgenden Feststellungen, fordert sie den jeweiligen Anbieter auf, die betreffende Nichtkonformität zu beheben:

Änderungsantrag  621

 

Vorschlag für eine Verordnung

Artikel 68 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) die Konformitätskennzeichnung wurde nicht nach Artikel 49 angebracht;

a) die CE-Kennzeichnung wurde nicht nach Artikel 49 angebracht;

Änderungsantrag  622

 

Vorschlag für eine Verordnung

Artikel 68 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) die Konformitätskennzeichnung wurde nicht angebracht;

b) die CE-Kennzeichnung wurde nicht angebracht;

Änderungsantrag  623

 

Vorschlag für eine Verordnung

Artikel 68– Absatz 1– Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) die technische Dokumentation ist nicht verfügbar;

Änderungsantrag  624

 

Vorschlag für eine Verordnung

Artikel 68 – Absatz 1 – Buchstabe e b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

eb) die Registrierung in der EU-Datenbank wurde nicht vorgenommen;

Änderungsantrag  625

 

Vorschlag für eine Verordnung

Artikel 68 – Absatz 1 – Buchstabe e c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ec) der Bevollmächtigte, soweit erforderlich, wurde nicht ernannt.

Änderungsantrag  626

 

Vorschlag für eine Verordnung

Artikel 68 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Besteht die Nichtkonformität nach Absatz 1 weiter, so ergreift der betreffende Mitgliedstaat alle geeigneten Maßnahmen, um die Bereitstellung des Hochrisiko-KI-Systems auf dem Markt zu beschränken oder zu untersagen oder um dafür zu sorgen, dass es zurückgerufen oder vom Markt genommen wird.

(2) Besteht die Nichtkonformität nach Absatz 1 weiter, so ergreift die nationale Aufsichtsbehörde des betreffenden Mitgliedstaats geeignete und angemessene Maßnahmen, um die Bereitstellung des Hochrisiko-KI-Systems auf dem Markt zu beschränken oder zu untersagen oder um dafür zu sorgen, dass es unverzüglich zurückgerufen oder vom Markt genommen wird. Die nationale Aufsichtsbehörde des betreffenden Mitgliedstaats unterrichtet das Amt für künstliche Intelligenz umgehend über die Nichtkonformität und die ergriffenen Maßnahmen.

Änderungsantrag  627

 

Vorschlag für eine Verordnung

Artikel 68 – Kapitel 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Rechtsmittel

Änderungsantrag  628

 

Vorschlag für eine Verordnung

Artikel 68 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 68a

 

Recht auf Beschwerde bei einer nationalen Aufsichtsbehörde

 

(1) Jede natürliche Person oder Gruppe von natürlichen Personen hat unbeschadet eines anderweitigen verwaltungsrechtlichen oder gerichtlichen Rechtsbehelfs das Recht auf Beschwerde bei einer nationalen Aufsichtsbehörde, insbesondere in dem Mitgliedstaat ihres gewöhnlichen Aufenthaltsorts, ihres Arbeitsplatzes oder des Orts des mutmaßlichen Verstoßes, wenn sie der Ansicht ist, dass das sie betreffende KI-System gegen diese Verordnung verstößt.

 

(2) Die nationale Aufsichtsbehörde, bei der die Beschwerde eingereicht wurde, unterrichtet den Beschwerdeführer über den Stand und die Ergebnisse der Beschwerde einschließlich der Möglichkeit eines gerichtlichen Rechtsbehelfs nach Artikel 78.

Änderungsantrag  629

 

Vorschlag für eine Verordnung

Artikel 68 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 68b

 

Recht auf einen wirksamen gerichtlichen Rechtsbehelf gegen eine nationale Aufsichtsbehörde

 

(1) Jede natürliche oder juristische Person hat unbeschadet eines anderweitigen verwaltungsrechtlichen oder außergerichtlichen Rechtsbehelfs das Recht auf einen wirksamen gerichtlichen Rechtsbehelf gegen einen sie betreffenden rechtsverbindlichen Beschluss einer nationalen Aufsichtsbehörde.

 

(2) Unbeschadet anderer verwaltungsrechtlicher oder außergerichtlicher Rechtsbehelfe hat jede natürliche oder juristische Person das Recht auf einen wirksamen gerichtlichen Rechtsbehelf, wenn die nach Artikel 59 zuständige nationale Aufsichtsbehörde eine Beschwerde nicht bearbeitet oder die betroffene Person nicht innerhalb von drei Monaten über den Fortgang oder das Ergebnis der gemäß Artikel 68a eingereichten Beschwerde unterrichtet.

 

(3) Für Verfahren gegen eine nationale Aufsichtsbehörde sind die Gerichte des Mitgliedstaats zuständig, in dem die nationale Aufsichtsbehörde ihren Sitz hat.

 

(4) Kommt es zu einem Verfahren gegen den Beschluss einer nationalen Aufsichtsbehörde, dem eine Stellungnahme oder ein Beschluss der Kommission im Rahmen des Schutzklauselverfahrens der Union vorangegangen ist, so leitet die nationale Aufsichtsbehörde diese Stellungnahme oder diesen Beschluss dem Gericht zu.

Änderungsantrag  630

 

Vorschlag für eine Verordnung

Artikel 68 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 68c

 

Das Recht auf Erläuterung der individuellen Entscheidungsfindung

 

(1) Personen, die von einer Entscheidung betroffen sind, die der Betreiber auf der Grundlage der Daten aus einem Hochrisiko-KI-System getroffen hat und die rechtliche Auswirkungen hat oder sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit, ihre Grundrechte, ihr sozioökonomisches Wohlergehen oder andere Rechte, die sich aus den in dieser Verordnung festgelegten Verpflichtungen ergeben, beeinträchtigt, haben das Recht, vom Betreiber eine klare und aussagekräftige Erläuterung gemäß Artikel 13 Absatz 1 zur Rolle des KI-Systems im Entscheidungsprozess, zu den wichtigsten Parametern der getroffenen Entscheidung und zu den zugehörigen Eingabedaten zu verlangen.

 

(2) Absatz 1 gilt nicht für den Einsatz von KI-Systemen, für die sich Ausnahmen von oder Beschränkungen der Verpflichtung nach Absatz 1 aus dem Unionsrecht oder nationalen Recht ergeben, sofern diese Ausnahmen oder Beschränkungen den Wesensgehalt der Grundrechte und Grundfreiheiten wahren und ein notwendiges und angemessenes Mittel in einer demokratischen Gesellschaft darstellen.

 

(3) Dieser Artikel gilt unbeschadet der Artikel 13, 14, 15 und 22 der Verordnung 2016/679.

Änderungsantrag  631

 

Vorschlag für eine Verordnung

Artikel 68 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 68d

 

Änderung der Richtlinie (EU) 2020/1828

 

In Anhang I der Richtlinie (EU) 2020/1828 des Europäischen Parlaments und des Rates1a wird die folgende Nummer angefügt:

 

 „(67a) Verordnung xxxx/xxxx des Europäischen Parlaments und des Rates [zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (ABl. L ...)]“.

 

_________________

 

1aRichtlinie (EU) 2020/1828 des Europäischen Parlaments und des Rates vom 25. November 2020 über Verbandsklagen zum Schutz der Kollektivinteressen der Verbraucher und zur Aufhebung der Richtlinie 2009/22/EG (ABl. L 409 vom 4.12.2020, S. 1).

Änderungsantrag  632

 

Vorschlag für eine Verordnung

Artikel 68 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 68e

 

Meldung von Verstößen und Schutz von Hinweisgebern

 

Für die Meldung von Verstößen gegen diese Verordnung und den Schutz von Personen, die solche Verstöße melden, gilt die Richtlinie (EU) 2019/1937 des Europäischen Parlaments und des Rates.

Änderungsantrag  633

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Kommission und die Mitgliedstaaten fördern und erleichtern die Aufstellung von Verhaltenskodizes, mit denen erreicht werden soll, dass die in Titel III Kapitel 2 genannten Anforderungen auf KI-Systeme Anwendung finden, die kein hohes Risiko bergen, und zwar auf der Grundlage technischer Spezifikationen und Lösungen, die geeignet sind, die Einhaltung dieser Anforderungen mit Blick auf die Zweckbestimmung der Systeme zu gewährleisten.

(1) Die Kommission, das Amt für künstliche Intelligenz und die Mitgliedstaaten fördern und erleichtern die Aufstellung von Verhaltenskodizes, mit denen erreicht werden soll, dass die in Titel III Kapitel 2 genannten Anforderungen auf KI-Systeme Anwendung finden, die kein hohes Risiko bergen, auch wenn die Verhaltenskodizes aufgestellt werden, um aufzuzeigen, inwiefern KI-Systeme die in Artikel 4a dargelegten Grundsätze achten und somit als vertrauenswürdig erachtet werden können, und zwar auf der Grundlage technischer Spezifikationen und Lösungen, die geeignet sind, die Einhaltung dieser Anforderungen mit Blick auf die Zweckbestimmung der Systeme zu gewährleisten.

Änderungsantrag  634

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Kommission und der Ausschuss fördern und erleichtern die Aufstellung von Verhaltenskodizes, mit denen erreicht werden soll, dass KI-Systeme freiwillig weitere Anforderungen erfüllen, die sich beispielsweise auf die ökologische Nachhaltigkeit, die barrierefreie Zugänglichkeit für Personen mit Behinderungen, die Beteiligung von Interessenträgern an der Konzeption und Entwicklung von KI-Systemen und die Vielfalt der Entwicklungsteams beziehen, wobei die Erreichung dieser Ziele anhand klarer Vorgaben und wesentlicher Leistungsindikatoren gemessen wird.

(2) In Verhaltenskodizes, mit denen erreicht werden soll, dass die Grundsätze für vertrauenswürdige KI-Systeme freiwillig erfüllt werden, muss insbesondere

 

a) das Ziel verfolgt werden, dass das Personal und andere Personen, die mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an Kompetenzen im Bereich KI verfügen, um diese Grundsätze zu wahren;

 

b) bewertet werden, in welchem Umfang sich ihre KI-Systeme auf schutzbedürftige Personen oder Personengruppen, darunter Kinder, ältere Menschen, Migranten und Menschen mit Behinderungen, auswirken können und welche Maßnahmen ergriffen werden können, um die Zugänglichkeit zu verbessern oder um diese Personen oder Personengruppen auf andere Weise zu unterstützen;

 

c) berücksichtigt werden, wie sich die Nutzung ihrer KI-Systeme auf die Vielfalt, das Geschlechterverhältnis und die Gleichstellung auswirken oder diese verbessern kann;

 

d) darauf geachtet werden, ob die KI-Systeme in einer Weise genutzt werden können, die direkt oder indirekt bestehende Voreingenommenheit oder Ungleichheiten nachhaltig oder erheblich verstärken kann;

 

e) abgewogen werden, ob es erforderlich und wichtig ist, über vielfältige Entwicklungsteams zu verfügen, um eine inklusive Gestaltung ihrer Systeme sicherzustellen;

 

f) sorgfältig abgewogen werden, ob die Systeme negative gesellschaftliche Auswirkungen haben können, insbesondere in Bezug auf politische Institutionen und demokratische Prozesse;

 

g) bewertet werden, wie KI-Systeme zur ökologischen Nachhaltigkeit und insbesondere zu den Verpflichtungen im Rahmen des europäischen Grünen Deals und der Europäischen Erklärung zu den digitalen Rechten und Grundsätzen beitragen können.

Änderungsantrag  635

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Verhaltenskodizes können von einzelnen KI-System-Anbietern oder von Interessenvertretungen dieser Anbieter oder von beiden aufgestellt werden, auch unter Einbeziehung von Nutzern und Interessenträgern sowie deren Interessenvertretungen. Verhaltenskodizes können sich auf mehrere KI-Systeme erstrecken, um ähnlichen Zweckbestimmungen der jeweiligen Systeme Rechnung zu tragen.

(3) Verhaltenskodizes können von einzelnen Anbietern von KI-Systemen oder von deren Interessenvertretungen oder von beiden aufgestellt werden, auch unter Einbeziehung von Nutzern und Interessenträgern, einschließlich Wissenschaftlern, sowie deren Interessenvertretungen, insbesondere Gewerkschaften und Verbraucherorganisationen. Verhaltenskodizes können sich auf mehrere KI-Systeme erstrecken, um ähnlichen Zweckbestimmungen der jeweiligen Systeme Rechnung zu tragen. Anbieter, die Verhaltenskodizes annehmen, benennen mindestens eine natürliche Person, die für die interne Überwachung verantwortlich ist.

Änderungsantrag  636

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Kommission und der Ausschuss berücksichtigen die besonderen Interessen und Bedürfnisse von Kleinanbietern und Startups bei der Förderung und Erleichterung der Aufstellung von Verhaltenskodizes.

(4) Die Kommission und das Amt für künstliche Intelligenz berücksichtigen die besonderen Interessen und Bedürfnisse von KMU und Startups bei der Förderung und Erleichterung der Aufstellung von Verhaltenskodizes.

Änderungsantrag  637

 

Vorschlag für eine Verordnung

Artikel 70 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Die an der Anwendung dieser Verordnung beteiligten zuständigen nationalen Behörden und notifizierten Stellen wahren die Vertraulichkeit der Informationen und Daten, von denen sie in Ausübung ihrer Aufgaben und Tätigkeiten Kenntnis erlangen und dabei insbesondere Folgendes schützen:

(1) Die an der Anwendung dieser Verordnung beteiligte Kommission, zuständigen nationalen Behörden und notifizierten Stellen, das Amt für künstliche Intelligenz und jede andere natürliche oder juristische Person wahren die Vertraulichkeit der Informationen und Daten, von denen sie in Ausübung ihrer Aufgaben und Tätigkeiten Kenntnis erlangen und dabei insbesondere Folgendes schützen;

Änderungsantrag  638

 

Vorschlag für eine Verordnung

Artikel 70 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Rechte des geistigen Eigentums, vertrauliche Geschäftsinformationen oder Geschäftsgeheimnisse natürlicher oder juristischer Personen, auch Quellcodes, mit Ausnahme der in Artikel 5 der Richtlinie 2016/943 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen (Geschäftsgeheimnisse) vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung genannten Fälle;

a) Rechte des geistigen Eigentums, vertrauliche Geschäftsinformationen oder Geschäftsgeheimnisse natürlicher oder juristischer Personen gemäß den Bestimmungen der Verordnungen 2004/48/EG und 2016/943/EG, auch Quellcodes, mit Ausnahme der in Artikel 5 der Richtlinie 2016/943 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen (Geschäftsgeheimnisse) vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung genannten Fälle;

Änderungsantrag  639

 

Vorschlag für eine Verordnung

Artikel 70 – Absatz 1 – Buchstabe b a (neu)

Artikel 70 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

 

ba) öffentliche und nationale Sicherheitsinteressen

Änderungsantrag  640

 

Vorschlag für eine Verordnung

Artikel 70 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Die an der Anwendung dieser Verordnung gemäß Absatz 1 beteiligten Behörden beschränken die Menge der zur Offenlegung angeforderten Daten auf die Daten, die für das wahrgenommene Risiko und die Bewertung dieses Risikos unbedingt erforderlich sind. Sie löschen die Daten, sobald diese für den Zweck, für den sie angefordert wurden, nicht mehr benötigt werden. Sie ergreifen angemessene und wirksame Cybersicherheitsmaßnahmen sowie technische und organisatorische Maßnahmen, um die Sicherheit und Vertraulichkeit der Informationen und Daten zu schützen, die sie bei der Wahrnehmung ihrer Aufgaben und Tätigkeiten erhalten;

Änderungsantrag  641

 

Vorschlag für eine Verordnung

Artikel 70 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Unbeschadet des Absatzes 1 darf der Austausch vertraulicher Informationen zwischen den zuständigen nationalen Behörden untereinander sowie zwischen den zuständigen nationalen Behörden und der Kommission nicht ohne vorherige Rücksprache mit der zuständigen nationalen Behörde und dem Nutzer, von denen die Informationen stammen, offengelegt werden, sofern die Hochrisiko-KI-Systeme nach Anhang III Nummern 1, 6 und 7 von Strafverfolgungs-, Einwanderungs- oder Asylbehörden verwendet werden und eine solche Offenlegung die öffentlichen und nationalen Sicherheitsinteressen gefährden könnte.

(2) Unbeschadet der Absätze 1 und 1 a darf der Austausch vertraulicher Informationen zwischen den zuständigen nationalen Behörden untereinander sowie zwischen den zuständigen nationalen Behörden und der Kommission nicht ohne vorherige Rücksprache mit der zuständigen nationalen Behörde und dem Betreiber, von denen die Informationen stammen, offengelegt werden, sofern die Hochrisiko-KI-Systeme nach Anhang III Nummern 1, 6 und 7 von Strafverfolgungs-, Einwanderungs- oder Asylbehörden verwendet werden und eine solche Offenlegung die öffentliche oder nationale Sicherheit gefährden könnte.

Änderungsantrag  642

 

Vorschlag für eine Verordnung

Artikel 70 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Absätze 1 und 2 dürfen sich weder auf die Rechte und Pflichten der Kommission, der Mitgliedstaaten und notifizierten Stellen in Bezug auf den Informationsaustausch und die Weitergabe von Warnungen noch auf die Pflichten der betreffenden Parteien auswirken, Informationen auf der Grundlage des Strafrechts der Mitgliedstaaten bereitzustellen.

(3) Die Absätze 1, 1a und 2 dürfen sich weder auf die Rechte und Pflichten der Kommission, der Mitgliedstaaten und notifizierten Stellen in Bezug auf den Informationsaustausch und die Weitergabe von Warnungen noch auf die Pflichten der betreffenden Parteien auswirken, Informationen auf der Grundlage des Strafrechts der Mitgliedstaaten bereitzustellen;

Änderungsantrag  643

 

Vorschlag für eine Verordnung

Artikel 70 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Kommission und die Mitgliedstaaten können mit Regulierungsbehörden von Drittstaaten, mit denen sie bilaterale oder multilaterale Vertraulichkeitsvereinbarungen getroffen haben und die ein angemessenes Niveau an Vertraulichkeit gewährleisten, erforderlichenfalls vertrauliche Informationen austauschen.

(4) Die Kommission und die Mitgliedstaaten können, wenn dies unbedingt erforderlich ist und im Einklang mit den einschlägigen Bestimmungen internationaler und Handelsabkommen, mit Regulierungsbehörden von Drittstaaten, mit denen sie bilaterale oder multilaterale Vertraulichkeitsvereinbarungen getroffen haben und die ein angemessenes Niveau an Vertraulichkeit gewährleisten, vertrauliche Informationen austauschen.

Änderungsantrag  644

 

Vorschlag für eine Verordnung

Artikel 71 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Sanktionen und Geldbußen

Sanktionen

Änderungsantrag  645

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Entsprechend den Vorgaben dieser Verordnung erlassen die Mitgliedstaaten Vorschriften für Sanktionen, beispielsweise in Form von Geldbußen, die bei Verstößen gegen diese Verordnung Anwendung finden, und ergreifen alle Maßnahmen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. Die vorgesehenen Sanktionen müssen wirksam, verhältnismäßig und abschreckend sein. Sie berücksichtigen insbesondere die Interessen von Kleinanbietern und Startups sowie deren wirtschaftliches Überleben.

(1) Entsprechend den Vorgaben dieser Verordnung erlassen die Mitgliedstaaten Vorschriften für Sanktionen, die bei Verstößen gegen diese Verordnung Anwendung finden, und ergreifen alle Maßnahmen, die für deren ordnungsgemäße und wirksame Durchsetzung und Anpassung an die von der Kommission und vom Amt für künstlich Intelligenz ausgearbeiteten Leitlinien nach Artikel 82b notwendig sind. Die vorgesehenen Sanktionen müssen wirksam, verhältnismäßig und abschreckend sein. Sie berücksichtigen die Interessen von KMU und Startups sowie deren wirtschaftliches Überleben;

Änderungsantrag  646

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Mitgliedstaaten teilen der Kommission diese Vorschriften und Maßnahmen mit und melden ihr unverzüglich alle diesbezüglichen Änderungen.

(2) Die Mitgliedstaaten teilen der Kommission diese Vorschriften und Maßnahmen bis zum … [12 Monate nach Inkrafttreten dieser Verordnung] mit und melden ihr unverzüglich alle diesbezüglichen Änderungen.

Änderungsantrag  647

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 3 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(3) Bei folgenden Verstößen werden Geldbußen von bis zu 30 000 000 EUR oder – im Falle von Unternehmen – von bis zu 6 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist:

(3) Bei Missachtung des Verbots der in Artikel 5 genannten Praktiken im Bereich der künstlichen Intelligenz werden Geldbußen von bis zu 40 000 000 EUR oder – im Falle von Unternehmen – von bis zu 7 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist:

Änderungsantrag  648

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 3 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Missachtung des Verbots der in Artikel 5 genannten KI-Praktiken;

entfällt

Änderungsantrag  649

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 3 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Nichtkonformität des KI-Systems mit den in Artikel 10 festgelegten Anforderungen.

entfällt

Änderungsantrag  650

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Verstoßen KI-Systeme gegen die in Artikel 10 und 13 festgelegten Anforderungen, werden Geldbußen von bis zu 20 000 000 EUR oder – im Falle von Unternehmen – von bis zu 4 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist.

Änderungsantrag  651

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Verstoßen KI-Systeme gegen die in dieser Verordnung festgelegten Anforderungen oder Pflichten, mit Ausnahme der in den Artikeln 5 und 10 genannten, werden Geldbußen von bis zu 20 000 000 EUR oder – im Falle von Unternehmen – von bis zu 4 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist.

(4) Verstoßen KI-Systeme oder Basismodelle gegen die in dieser Verordnung festgelegten Anforderungen oder Pflichten, mit Ausnahme der in den Artikeln 5, 10 und 13 genannten, werden Geldbußen von bis zu 10 000 000 EUR oder – im Falle von Unternehmen – von bis zu 2 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist;

Änderungsantrag  652

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Werden gegenüber notifizierten Stellen und zuständigen nationalen Behörden auf deren Auskunftsverlangen hin falsche, unvollständige oder irreführende Angaben gemacht, werden Geldbußen von bis zu 10 000 000 EUR oder – im Falle von Unternehmen – von bis zu 2 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist.

(5) Werden gegenüber notifizierten Stellen und zuständigen nationalen Behörden auf deren Auskunftsverlangen hin falsche, unvollständige oder irreführende Angaben gemacht, werden Geldbußen von bis zu 5 000 000 EUR oder – im Falle von Unternehmen – von bis zu 1 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist.

Änderungsantrag  653

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(6) Bei der Festsetzung der Geldbuße werden in jedem Einzelfall alle relevanten Umstände der konkreten Situation sowie Folgendes gebührend berücksichtigt:

(6) Geldbußen können zusätzlich zu oder anstelle von nichtmonetären Maßnahmen wie Anordnungen oder Verwarnungen verhängt werden. Bei der Festsetzung der Geldbuße werden in jedem Einzelfall alle relevanten Umstände der konkreten Situation sowie Folgendes gebührend berücksichtigt;

Änderungsantrag  654

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Art, Schwere und Dauer des Verstoßes und dessen Folgen;

a) Art, Schwere und Dauer des Verstoßes und dessen Folgen unter Berücksichtigung des Zwecks des KI-Systems sowie gegebenenfalls der Zahl der betroffenen Personen und des Ausmaßes des von ihnen erlittenen Schadens;

Änderungsantrag  655

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) ob bereits andere Marktüberwachungsbehörden demselben Akteur für denselben Verstoß Geldbußen auferlegt haben;

b) ob bereits andere nationale Aufsichtsbehörden eines oder mehrerer Mitgliedstaaten demselben Akteur für denselben Verstoß Geldbußen auferlegt haben;

Änderungsantrag  656

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Größe und Marktanteil des Akteurs, der den Verstoß begangen hat.

c) Größe und Jahresumsatz des Akteurs, der den Verstoß begangen hat;

Änderungsantrag  657

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) alle Maßnahmen, die der Akteur ergriffen hat, um den Schaden, der den betroffenen Personen zugefügt wird, zu mindern;

Änderungsantrag  658

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cb) Vorsätzlichkeit oder Fahrlässigkeit des Verstoßes;

Änderungsantrag  659

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cc) den Grad der Zusammenarbeit mit den zuständigen nationalen Behörden zu dem Zweck, den Verstoß abzustellen und die möglichen nachteiligen Auswirkungen des Verstoßes abzumildern;

Änderungsantrag  660

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cd) Grad an Verantwortung des Akteurs unter Berücksichtigung der von ihm ergriffenen technischen und organisatorischen Maßnahmen;

Änderungsantrag  661

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ce) Art und Weise, wie der Verstoß den zuständigen nationalen Behörden bekannt wurde, insbesondere ob und gegebenenfalls in welchem Umfang der Akteur den Verstoß gemeldet hat;

Änderungsantrag  662

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c f (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cf) Einhaltung genehmigter Verhaltensregeln oder genehmigter Zertifizierungsverfahren;

Änderungsantrag  663

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c g (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cg) etwaige einschlägige frühere Verstöße des Akteurs;

Änderungsantrag  664

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 6 – Buchstabe c h (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ch) andere erschwerende oder mildernde Umstände im jeweiligen Fall.

Änderungsantrag  665

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 7

 

Vorschlag der Kommission

Geänderter Text

(7) Jeder Mitgliedstaat erlässt Vorschriften darüber, ob und in welchem Umfang gegen Behörden und öffentliche Stellen, die in dem betreffenden Mitgliedstaat niedergelassen sind, Geldbußen verhängt werden können.

(7) Jeder Mitgliedstaat erlässt Vorschriften über die Geldbußen, die gegen Behörden und öffentliche Stellen, die in dem betreffenden Mitgliedstaat niedergelassen sind, zu verhängen sind;

Änderungsantrag  666

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 8 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(8a) Die in diesem Artikel genannten Sanktionen sowie die damit verbundenen Prozesskosten und Entschädigungsansprüche sind nicht Gegenstand von Vertragsklauseln oder anderen Formen von Lastenteilungsvereinbarungen zwischen Anbietern und Händlern, Einführern, Betreibern oder sonstigen Dritten;

Änderungsantrag  667

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 8 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(8b) Die nationalen Aufsichtsbehörden erstatten dem Amt für künstliche Intelligenz jährlich Bericht über die Geldbußen, die sie im Laufe des entsprechenden Jahres nach Maßgabe dieses Artikels verhängt haben;

Änderungsantrag  668

 

Vorschlag für eine Verordnung

Artikel 71 – Absatz 8 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(8c) Für die Ausübung der Befugnisse nach diesem Artikel durch die zuständigen Behörden gelten geeignete Verfahrensgarantien nach Unionsrecht und nationalem Recht, einschließlich gerichtlicher Rechtsbehelfe und ordnungsgemäßer Verfahren;

Änderungsantrag  669

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Art, Schwere und Dauer des Verstoßes und dessen Folgen;

a) Art, Schwere und Dauer des Verstoßes und dessen Folgen unter Berücksichtigung des Zwecks des betreffenden KI-Systems sowie gegebenenfalls der Zahl der betroffenen Personen und des Ausmaßes des von ihnen erlittenen Schadens sowie etwaiger einschlägiger früherer Verstöße;

Änderungsantrag  670

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) alle Maßnahmen, die das Organ, die Einrichtung oder die sonstige Stelle der Union zur Minderung des von den betroffenen Personen erlittenen Schadens ergriffen hat;

Änderungsantrag  671

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe a b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ab) Grad der Verantwortung des Organs, der Einrichtung oder der sonstigen Stelle der Union unter Berücksichtigung der von diesen ergriffenen technischen und organisatorischen Maßnahmen;

Änderungsantrag  672

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) die Zusammenarbeit mit dem Europäischen Datenschutzbeauftragten bei der Behebung des Verstoßes und der Minderung seiner möglichen Auswirkungen, einschließlich der Befolgung von Maßnahmen, die der Europäische Datenschutzbeauftragte dem Organ, der der Einrichtung oder der sonstigen Stelle der Union im Hinblick auf denselben Gegenstand zuvor bereits auferlegt hatte;

b) Grad der Zusammenarbeit mit dem Europäischen Datenschutzbeauftragten bei der Behebung des Verstoßes und der Minderung seiner möglichen Auswirkungen, einschließlich der Befolgung von Maßnahmen, die der Europäische Datenschutzbeauftragte dem Organ, der der Einrichtung oder der sonstigen Stelle der Union im Hinblick auf denselben Gegenstand zuvor bereits auferlegt hatte;

Änderungsantrag  673

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe c a (neu)

Artikel 72 – Absatz 1 – Buchstabe d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) Art und Weise, wie der Verstoß dem Europäischen Datenschutzbeauftragten bekannt wurde, insbesondere ob und – wenn ja – in welchem Umfang das Organ oder die Einrichtung der Union den Verstoß gemeldet hat;

Änderungsantrag  674

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe c b (neu)

Artikel 72 – Absatz 1 – Buchstabe e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cb) die jährliche Mittelausstattung der Stelle;

Änderungsantrag  675

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Bei folgenden Verstößen werden Geldbußen von bis zu 500 000 EUR verhängt:

(2) Bei Missachtung des Verbots der in Artikel 5 genannten Praktiken im Bereich der künstlichen Intelligenz werden Geldbußen von bis zu 1 500 000 EUR verhängt.

Änderungsantrag  676

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Missachtung des Verbots der in Artikel 5 genannten KI-Praktiken;

entfällt

Änderungsantrag  677

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Verstoßen KI-Systeme gegen die in Artikel 10 festgelegten Anforderungen, werden Geldbußen von bis zu 1 000 000 EUR verhängt.

Änderungsantrag  678

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Verstoßen KI-Systeme gegen die in dieser Verordnung festgelegten Anforderungen oder Pflichten, mit Ausnahme der in den Artikeln 5 und 10 genannten, werden Geldbußen von bis zu 250 000 EUR verhängt.

(3) Verstoßen KI-Systeme gegen die in dieser Verordnung festgelegten Anforderungen oder Pflichten, mit Ausnahme der in den Artikeln 5 und 10 genannten, werden Geldbußen von bis zu 750 000 EUR verhängt.

Änderungsantrag  679

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Das Aufkommen aus den nach diesem Artikel verhängten Geldbußen zählt zu den Einnahmen des Gesamthaushalts der Union.

(6) Das Aufkommen aus den nach diesem Artikel verhängten Geldbußen fließt in den Gesamthaushalt der Union. Die Geldbußen dürfen sich nicht auf den wirksamen Betrieb des Organs, der Einrichtung oder sonstigen Stelle der Union auswirken, denen die Geldbuße auferlegt wurde.

Änderungsantrag  680

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) der Europäische Datenschutzbeauftragte macht dem Amt für künstliche Intelligenz jährlich Mitteilung über die Geldbußen, die er nach Maßgabe dieses Artikels verhängt hat.

Änderungsantrag  681

 

Vorschlag für eine Verordnung

Artikel 73 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Befugnis zum Erlass delegierter Rechtsakte nach Artikel 4, Artikel 7 Absatz 1, Artikel 11 Absatz 3, Artikel 43 Absatz 5 und 6 und Artikel 48 Absatz 5 wird der Kommission auf unbestimmte Zeit ab dem [Datum des Inkrafttretens dieser Verordnung] übertragen.

(2) Die Befugnis zum Erlass delegierter Rechtsakte nach Artikel 4, Artikel 7 Absatz 1, Artikel 11 Absatz 3, Artikel 43 Absatz 5 und 6 und Artikel 48 Absatz 5 wird der Kommission für einen Zeitraum von fünf Jahren ab dem ... [Datum des Inkrafttretens dieser Verordnung] übertragen. Die Kommission erstellt spätestens neun Monate vor Ablauf des Zeitraums von fünf Jahren einen Bericht über die Befugnisübertragung. Die Befugnisübertragung verlängert sich stillschweigend um Zeiträume gleicher Länge, es sei denn, das Europäische Parlament oder der Rat widersprechen einer solchen Verlängerung spätestens drei Monate vor Ablauf des jeweiligen Zeitraums.

Änderungsantrag  682

 

Vorschlag für eine Verordnung

Artikel 73 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Vor dem Erlass eines delegierten Rechtsakts konsultiert die Kommission die einschlägigen Organe, das Amt, den Beirat und andere einschlägige Interessenträger im Einklang mit den in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung enthaltenen Grundsätzen.

 

Sobald die Kommission beschließt, einen delegierten Rechtsakt auszuarbeiten, teilt sie dies dem Europäischen Parlament mit. Diese Mitteilung verpflichtet die Kommission nicht dazu, diesen Rechtsakt zu erlassen.

Änderungsantrag  683

 

Vorschlag für eine Verordnung

Artikel 81 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 81a

 

Änderung der Verordnung (EU) 2019/1020

 

Die Verordnung (EU) 2019/1020 wird wie folgt geändert:

 

In Artikel 14 Absatz 4 wird der folgende Absatz angefügt:

 

„l) die Befugnis, die in diesem Artikel geregelten Befugnisse gegebenenfalls aus der Ferne zu erteilen;“

Änderungsantrag  684

 

Vorschlag für eine Verordnung

Artikel 82 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 82a

 

Bessere Rechtsetzung

 

bei der Berücksichtigung der Anforderungen dieser Verordnung gemäß Artikeln 75, 76, 77, 78, 79, 80, 81 und 82 führt die Kommission eine Analyse durch und konsultiert die einschlägigen Interessenträger, um potenzielle Lücken sowie Überschneidungen der bestehenden sektorspezifischen Rechtsvorschriften und der Bestimmungen dieser Verordnung festzustellen.

Änderungsantrag  685

 

Vorschlag für eine Verordnung

Artikel 82 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 82b

 

Leitlinien der Kommission zur Durchführung dieser Verordnung

 

(1) Die Kommission erarbeitet in Absprache mit dem Amt für künstliche Intelligenz Leitlinien für die praktische Umsetzung dieser Verordnung, insbesondere zu folgenden Punkten:

 

a) die Anwendung der Vorschriften nach Artikel 8 bis 15 und Artikel 28 bis 28b;

 

b) die in Artikel 5 genannten die verbotenen Praktiken;

 

c) die praktische Umsetzung der Bestimmungen über wesentliche Änderungen;

 

d) die praktischen Umstände, unter denen die Ergebnisse eines in Anhang III genannten KI-Systems ein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte natürlicher Personen gemäß Artikel 6 Absatz 2 darstellen würden, einschließlich Beispielen in Bezug auf die in Anhang III genannten Hochrisiko-KI-Systeme;

 

e) die praktische Umsetzung der in Artikel 52 festgelegten Transparenzanforderungen;

 

f) die Erstellung der in Artikel 69 genannten Verhaltenskodizes;

 

g) das Verhältnis dieser Verordnung zu anderen einschlägigen Rechtsvorschriften der Union, auch in Bezug auf deren einheitliche Durchsetzung.

 

h) die praktische Umsetzung von Artikel 12, Artikel 28b über die Umweltauswirkungen von Basismodellen und Anhang IV Nummer 3 Buchstabe b, insbesondere die Mess- und Aufzeichnungsverfahren für die Berechnung und Meldung der Umweltauswirkungen von Systemen zur Erfüllung der in dieser Verordnung festgelegten Verpflichtungen, einschließlich des CO2-Fußabdrucks und der Energieeffizienz, unter Berücksichtigung des Stands der Technik und von Skaleneffekten.

 

Wenn die Kommission Leitlinien herausgibt, widmet sie den Bedürfnissen von KMU, einschließlich Start-up-Unternehmen, lokalen Behörden und der höchstwahrscheinlich von dieser Verordnung betroffenen Sektoren besondere Aufmerksamkeit.

 

(2) Auf Ersuchen der Mitgliedstaaten oder des Amts für künstliche Intelligenz oder von sich aus aktualisiert die Kommission bereits verabschiedete Leitlinien, wenn dies als notwendig erachtet wird.

Änderungsantrag  686

 

Vorschlag für eine Verordnung

Artikel 83 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Diese Verordnung gilt nicht für KI-Systeme, bei denen es sich um Komponenten von IT-Großsystemen handelt, die mit den in Anhang IX genannten Rechtsakten festgelegt wurden und vor dem [Datum 12 Monate nach dem Datum der Anwendung dieser Verordnung nach Artikel 85 Absatz 2] in Verkehr gebracht oder in Betrieb genommen wurden, sofern der Ersatz oder die Änderung jener Rechtsakte nicht zu einer wesentlichen Änderung der Konzeption oder Zweckbestimmung des betreffenden KI-Systems führt.

(1) Betreiber der KI-Systeme, bei denen es sich um Komponenten von IT-Großsystemen handelt, die mit den in Anhang IX genannten Rechtsakten festgelegt wurden und vor dem ... [Datum des Inkrafttretens dieser Verordnung] in Verkehr gebracht oder in Betrieb genommen wurden, treffen die erforderlichen Maßnahmen, um die Anforderungen dieser Verordnung bis zum… [vier Jahren nach dem Inkrafttreten dieser Verordnung] zu erfüllen.

Änderungsantrag  687

 

Vorschlag für eine Verordnung

Artikel 83 – Absatz 1 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Die in dieser Verordnung festgelegten Anforderungen werden gegebenenfalls bei der Bewertung jedes IT-Großsystems, das auf der Grundlage der in Anhang IX aufgeführten Rechtsakte eingerichtet wurde, berücksichtigt, wobei die Bewertung entsprechend den Vorgaben der jeweiligen Rechtsakte erfolgt.

Die in dieser Verordnung festgelegten Anforderungen werden bei der Bewertung jedes IT-Großsystems, das auf der Grundlage der in Anhang IX aufgeführten Rechtsakte eingerichtet wurde, berücksichtigt, wobei die Bewertung entsprechend den Vorgaben der jeweiligen Rechtsakte und entsprechend den jeweils gültigen Vorgaben, wenn diese Rechtsakte ersetzt oder geändert werden, erfolgt.

Änderungsantrag  688

 

Vorschlag für eine Verordnung

Artikel 83 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Diese Verordnung gilt – mit Ausnahme der in Absatz 1 genannten Systeme – für Hochrisiko-KI-Systeme, die vor dem [Datum der Anwendung dieser Verordnung nach Artikel 85 Absatz 2] in Verkehr gebracht oder in Betrieb genommen wurden, nur dann, wenn diese Systeme danach in ihrer Konzeption oder Zweckbestimmung wesentlich geändert wurden.

(2) Diese Verordnung gilt – mit Ausnahme der in Absatz 1 genannten Systeme – für Betreiber von Hochrisiko-KI-Systemen, die vor dem [Datum der Anwendung dieser Verordnung nach Artikel 85 Absatz 2] in Verkehr gebracht oder in Betrieb genommen wurden, nur dann, wenn diese Systeme danach gemäß der Definition in Artikel 3 Absatz 23 wesentlich geändert wurden. Im Falle von Hochrisiko-KI-Systemen, die bestimmungsgemäß von Behörden verwendet werden sollen, treffen die Anbieter und Betreiber solcher Systeme die erforderlichen Maßnahmen für die Erfüllung der Anforderungen dieser Verordnung [zwei Jahre nach dem Inkrafttreten dieser Verordnung].

Änderungsantrag  689

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Kommission prüft nach dem Inkrafttreten dieser Verordnung einmal jährlich, ob eine Änderung der Liste in Anhang III erforderlich ist.

(1) Nach Anhörung des Amtes für künstliche Intelligenz prüft die Kommission nach dem Inkrafttreten dieser Verordnung einmal jährlich und auf Empfehlung des Amtes, ob eine Änderung der Liste in Anhang III, einschließlich der Ausweitung der Rubriken oder der Aufnahme neuer Rubriken,

 

der Liste verbotener KI-Praktiken des Artikels 5 und der Liste der KI-Systeme, die zusätzliche Transparenzmaßnahmen nach Artikel 52 erfordern, notwendig ist.

 

die Kommission übermittelt die Schlussfolgerungen dieser Bewertungen dem Europäischen Parlament und dem Rat.

Änderungsantrag  690

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bis zum [Datum drei Jahre nach dem Datum der Anwendung dieser Verordnung nach Artikel 85 Absatz 2] und danach alle vier Jahre legt die Kommission dem Europäischen Parlament und dem Rat einen Bericht über die Bewertung und Überprüfung dieser Verordnung vor. Die Berichte werden veröffentlicht.

(2) Bis zum [Datum zwei Jahre nach dem Datum der Anwendung dieser Verordnung nach Artikel 85 Absatz 2] und danach alle zwei Jahre legt die Kommission gemeinsam mit dem Amt für künstliche Intelligenz dem Europäischen Parlament und dem Rat einen Bericht über die Bewertung und Überprüfung dieser Verordnung vor. Die Berichte werden veröffentlicht.

Änderungsantrag  691

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Stand der finanziellen und personellen Ressourcen der zuständigen nationalen Behörden im Hinblick auf deren Fähigkeit, die ihnen auf der Grundlage dieser Verordnung übertragenen Aufgaben wirksam zu erfüllen;

a) Stand der finanziellen, technischen und personellen Ressourcen der zuständigen nationalen Behörden im Hinblick auf deren Fähigkeit, die ihnen auf der Grundlage dieser Verordnung übertragenen Aufgaben wirksam zu erfüllen;

Änderungsantrag  692

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) der Entwicklungsstand harmonisierter Normen und gemeinsamer Spezifikationen für künstliche Intelligenz;

Änderungsantrag  693

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe b b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bb) der Umfang von Investitionen in Forschung, Entwicklung und Einsatz von KI-Systemen in der Union;

Änderungsantrag  694

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe b c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bc) die Wettbewerbsfähigkeit des zusammengefassten europäischen KI-Sektors im Vergleich zu den KI-Sektoren in Drittländern;

Änderungsantrag  695

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe b d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bd) die Auswirkung der Verordnung hinsichtlich des Ressourcen- und Energieverbrauchs sowie des Abfallaufkommens und anderer Umweltauswirkungen;

Änderungsantrag  696

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe b e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

be) die Umsetzung des koordinierten Plans für künstliche Intelligenz, wobei das unterschiedliche Ausmaß des Fortschritts unter den Mitgliedstaaten zu berücksichtigen ist und bestehende Hindernisse für Innovationen im Bereich der KI zu ermitteln sind;

Änderungsantrag  697

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe b f (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bf) die Aktualisierung der spezifischen Anforderungen an die Nachhaltigkeit von KI-Systemen und Basismodellen ausgehend von der Melde- und Dokumentationspflicht in Anhang IV und in Artikel 28b;

Änderungsantrag  698

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe b g(neu)

 

Vorschlag der Kommission

Geänderter Text

 

bg) der Rechtsrahmen zur Regelung von Basismodellen;

Änderungsantrag  699

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 – Buchstabe b h (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bh) die Liste der missbräuchlichen Vertragsklauseln in Artikel 28a, wobei erforderlichenfalls neue Geschäftspraktiken berücksichtigt werden;

Änderungsantrag  700

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Bis zum … [zwei Jahre nach Inkrafttreten dieser Verordnung gemäß Artikel 85 Absatz 2] bewertet die Kommission die Arbeitsweise des Amts für künstliche Intelligenz und prüft, ob das Amt mit ausreichenden Befugnissen und Zuständigkeiten zur Erfüllung seiner Aufgaben ausgestattet wurde, und ob es für die ordnungsgemäße Durchführung und Durchsetzung dieser Verordnung zweckmäßig und erforderlich wäre, das Büro und seine Durchsetzungskompetenzen zu erweitern und seine Ressourcen aufzustocken. Die Kommission übermittelt diesen Evaluierungsbericht dem Europäischen Parlament und dem Rat.

Änderungsantrag  701

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Innerhalb von [drei Jahren nach dem Datum der Anwendung dieser Verordnung nach Artikel 85 Absatz 2] und danach alle vier Jahre führt die Kommission eine Bewertung der Folgen und Wirksamkeit der Verhaltenskodizes durch, mit denen die Anwendung der Anforderungen in Titel III Kapitel 2 und möglicherweise auch zusätzlicher Anforderungen an andere KI-Systeme als Hochrisiko-KI-Systeme gefördert werden soll.

(4) Innerhalb [eines Jahres nach dem Datum der Anwendung dieser Verordnung nach Artikel 85 Absatz 2] und danach alle zwei Jahre führt die Kommission eine Bewertung der Folgen und Wirksamkeit der Verhaltenskodizes durch, mit denen die Anwendung der Anforderungen in Titel III Kapitel 2 und möglicherweise auch zusätzlicher Anforderungen an andere KI-Systeme als Hochrisiko-KI-Systeme gefördert werden soll;

Änderungsantrag  702

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Für die Zwecke der Absätze 1 bis 4 übermitteln der Ausschuss, die Mitgliedstaaten und die zuständigen nationalen Behörden der Kommission auf Anfrage die gewünschten Informationen.

(5) Für die Zwecke der Absätze 1 bis 4 übermitteln das Amt für künstliche Intelligenz, die Mitgliedstaaten und die zuständigen nationalen Behörden der Kommission auf Anfrage unverzüglich die gewünschten Informationen.

Änderungsantrag  703

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Bei den in den Absätzen 1 und 4 genannten Bewertungen und Überprüfungen berücksichtigt die Kommission die Standpunkte und Feststellungen des Ausschusses, des Europäischen Parlaments, des Rates und anderer einschlägiger Stellen oder Quellen.

(6) Bei den in den Absätzen 1 und 4 genannten Bewertungen und Überprüfungen berücksichtigt die Kommission die Standpunkte und Feststellungen des Amts für künstliche Intelligenz, des Europäischen Parlaments, des Rates und anderer einschlägiger Stellen oder Quellen und konsultieren die einschlägigen Interessenträger. Das Ergebnis dieser Konsultation wird dem Bericht beigefügt;

Änderungsantrag  704

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 7

 

Vorschlag der Kommission

Geänderter Text

(7) Die Kommission legt erforderlichenfalls geeignete Vorschläge zur Änderung dieser Verordnung vor und berücksichtigt dabei insbesondere die technischen Entwicklungen und die Fortschritte in der Informationsgesellschaft.

(7) Die Kommission legt erforderlichenfalls geeignete Vorschläge zur Änderung dieser Verordnung vor und berücksichtigt dabei insbesondere die technischen Entwicklungen, die Auswirkungen von KI-Systemen auf die Gesundheit und Sicherheit, die Grundrechte, die Umwelt, die Gleichstellung und Barrierefreiheit für Personen mit Behinderung, die Demokratie und Rechtsstaatlichkeit und die Fortschritte in der Informationsgesellschaft.

Änderungsantrag  705

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 7 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(7a) Als Anleitung für die in Absatz 1 bis 4 dieses Artikels genannten Bewertungen und Überprüfungen entwickelt das Amt ein Ziel und eine partizipative Methode für die Bewertung des Risikoniveaus anhand der Kriterien gemäß den maßgeblichen Artikeln und für die Einbeziehung neuer Systeme in die Liste in Anhang III, einschließlich der Erweiterung bestehender Rubriken oder der Aufnahme neuer Rubriken; die Liste der verbotenen Praktiken in Artikel 5; und die Liste der KI-Systeme, die zusätzliche Transparenzmaßnahmen gemäß Artikel 52 erfordern.

Änderungsantrag  706

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 7 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(7b) Eine Änderung dieser Verordnung im Sinne des Absatzes 7 oder künftige delegierte oder Durchführungsrechtsakte, die sektorspezifische Rechtsvorschriften gemäß Anhang II Abschnitt B betreffen, berücksichtigen die regulatorischen Besonderheiten des jeweiligen Sektors und die in der Verordnung festgelegten bestehenden Governance-, Konformitätsbewertungs- und Durchsetzungsmechanismen und -behörden.

Änderungsantrag  707

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 7 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(7c) Bis zum … [fünf Jahre nach dem Beginn der Anwendung dieser Verordnung] nimmt die Kommission unter Berücksichtigung der ersten Jahre der Anwendung der Verordnung eine Bewertung der Durchsetzung dieser Verordnung vor und erstattet dem Europäischen Parlament, dem Rat und dem Europäischen Wirtschafts- und Sozialausschuss darüber Bericht. Auf Grundlage der Ergebnisse wird dem Bericht gegebenenfalls ein Änderungsantrag für diese Verordnung beigefügt, der die Struktur der Durchsetzung und die Notwendigkeit einer Unionsagentur für die Behebung nicht erkannter Mängel betrifft.

Änderungsantrag  708

 

Vorschlag für eine Verordnung

Anhang I

 

Vorschlag der Kommission

Geänderter Text

TECHNIKEN UND KONZEPTE DER KÜNSTLICHEN INTELLIZENZ gemäß Artikel 3 Absatz 1

entfällt

a) Konzepte des maschinellen Lernens, mit beaufsichtigtem, unbeaufsichtigtem und bestärkendem Lernen unter Verwendung einer breiten Palette von Methoden, einschließlich des tiefen Lernens (Deep Learning);

 

b) Logik- und wissensgestützte Konzepte, einschließlich Wissensrepräsentation, induktiver (logischer) Programmierung, Wissensgrundlagen, Inferenz- und Deduktionsmaschinen, (symbolischer) Schlussfolgerungs- und Expertensysteme;

 

c) Statistische Ansätze, Bayessche Schätz-, Such- und Optimierungsmethoden.

 

Änderungsantrag  709

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

Als Hochrisiko-KI-Systeme gemäß Artikel 6 Absatz 2 gelten die in folgenden Bereichen aufgeführten KI-Systeme:

Die spezifisch unter den Nummern 1 bis 8a aufgeführten KI-Systeme stehen für kritische Anwendungsfälle und gelten jeweils als Hochrisiko-KI-Systeme gemäß Artikel 6 Absatz 2, sofern sie die in diesem Artikel festgelegten Kriterien erfüllen:

Änderungsantrag  710

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

1. Biometrische Identifizierung und Kategorisierung natürlicher Personen:

1. Biometrische und auf Biometrie beruhende Systeme

Änderungsantrag  711

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß für die biometrische Echtzeit-Fernidentifizierung und nachträgliche biometrische Fernidentifizierung natürlicher Personen verwendet werden sollen;

a) KI-Systeme, die bestimmungsgemäß für die biometrische Identifizierung natürlicher Personen verwendet werden sollen, mit Ausnahme der in Artikel 5 genannten Systeme;

Änderungsantrag  712

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 1 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) KI-Systeme, durch die auf der Grundlage biometrischer oder biometriegestützter Daten Rückschlüsse auf persönliche Merkmale natürlicher Personen gezogen werden, einschließlich Systeme zum Erkennen von Emotionen, mit Ausnahme der in Artikel 5 genannten Systeme;

 

Nummer 1 sollte keine KI-Systeme umfassen, die bestimmungsgemäß für die biometrische Verifizierung verwendet werden sollen, deren einziger Zweck darin besteht, zu bestätigen, dass eine bestimmte Person die Person ist, für die sie sich ausgibt.

Änderungsantrag  713

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß als Sicherheitskomponenten in der Verwaltung und im Betrieb des Straßenverkehrs sowie in der Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen.

a) KI-Systeme, die bestimmungsgemäß als Sicherheitskomponenten in der Verwaltung und im Betrieb des Straßen-, Schienen- und Luftverkehrs verwendet werden sollen, es sei denn, diese werden im Rahmen von Harmonisierungs- oder sektorspezifischen Rechtsvorschriften geregelt.

Änderungsantrag  714

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 2 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) KI-Systeme, die bestimmungsgemäß als Sicherheitskomponenten in der Verwaltung und im Betrieb der Wasser-, Gas-, Wärme- und Stromversorgung sowie kritischer digitaler Infrastruktur verwendet werden sollen;

Änderungsantrag  715

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 3 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß für Entscheidungen über den Zugang oder die Zuweisung natürlicher Personen zu Einrichtungen der allgemeinen und beruflichen Bildung verwendet werden sollen;

a) KI-Systeme, die bestimmungsgemäß für Entscheidungen über den Zugang oder zur erheblichen Einflussnahme auf Entscheidungen über die Zulassung oder die Zuweisung natürlicher Personen zu Einrichtungen der allgemeinen und beruflichen Bildung verwendet werden sollen;

Änderungsantrag  716

 

Vorschlag für eine Verordnung

Anlage III – Absatz 1 – Nummer 3 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) KI-Systeme, die bestimmungsgemäß für die Bewertung von Schülern in Einrichtungen der allgemeinen und beruflichen Bildung und für die Bewertung der Teilnehmer an üblicherweise für die Zulassung zu Bildungseinrichtungen erforderlichen Tests verwendet werden sollen.

b) KI-Systeme, die bestimmungsgemäß für die Bewertung von Schülern in Einrichtungen der allgemeinen und beruflichen Bildung und für die Bewertung der Teilnehmer an üblicherweise für die Zulassung zu diesen Einrichtungen erforderlichen Tests verwendet werden sollen;

Änderungsantrag  717

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 3 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) KI-Systeme, die bestimmungsgemäß für die Bewertung des angemessenen Bildungsniveaus einer Person verwendet werden sollen und das Niveau der Bildung und Ausbildung, das die Person erhält oder zu dem sie Zugang erhält, wesentlich beeinflussen;

Änderungsantrag  718

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 3 – Buchstabe b b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bb) KI-Systeme, die bestimmungsgemäß zur Überwachung und Erkennung von unzulässigem Verhalten von Schülern und Studierenden bei Prüfungen im Rahmen von/in Einrichtungen der allgemeinen und beruflichen Bildung verwendet werden sollen;

Änderungsantrag  719

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 4 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere für die Bekanntmachung freier Stellen, das Sichten oder Filtern von Bewerbungen und das Bewerten von Bewerbern in Vorstellungsgesprächen oder Tests;

a) KI-Systeme, die bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere für die Bekanntmachung gezielter Stellenausschreibungen, das Sichten oder Filtern von Bewerbungen und das Bewerten von Bewerbern in Vorstellungsgesprächen oder Tests;

Änderungsantrag  720

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 4 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) KI-Systeme, die bestimmungsgemäß für Entscheidungen über Beförderungen und über Kündigungen von Arbeitsvertragsverhältnissen, für die Aufgabenzuweisung sowie für die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beschäftigungsverhältnissen verwendet werden sollen;

b) KI-Systeme, die bestimmungsgemäß für Entscheidungen oder zur erheblichen Einflussnahme auf Entscheidungen betreffend die Einstellung, Beförderung und Kündigung von Arbeitsvertragsverhältnissen, die Aufgabenzuweisung auf der Grundlage des individuellen Verhaltens oder persönlicher Eigenschaften oder Merkmale oder für die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beschäftigungsverhältnissen verwendet werden sollen;

Änderungsantrag  721

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 5 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß von Behörden oder im Namen von Behörden verwendet werden sollen, um zu beurteilen, ob natürliche Personen Anspruch auf öffentliche Unterstützungsleistungen und -dienste haben und ob solche Leistungen und Dienste zu gewähren, einzuschränken, zu widerrufen oder zurückzufordern sind;

a) KI-Systeme, die bestimmungsgemäß von Behörden oder im Namen von Behörden verwendet werden sollen, um zu beurteilen, ob natürliche Personen Anspruch auf öffentliche Unterstützungsleistungen und ‑dienste haben, einschließlich Gesundheitsdienstleistungen und wesentlicher Dienstleistungen, einschließlich, jedoch nicht beschränkt auf Wohnen, Strom, Heizung/Kühlung und Internet, und ob solche Leistungen und Dienste zu gewähren, einzuschränken, zu widerrufen, zu erhöhen oder zurückzufordern sind;

Änderungsantrag  722

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 5 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) KI-Systeme, die bestimmungsgemäß für die Kreditwürdigkeitsprüfung und Kreditpunktebewertung natürlicher Personen verwendet werden sollen, mit Ausnahme von KI-Systemen, die von Kleinanbietern für den Eigengebrauch in Betrieb genommen werden;

b) KI-Systemen, die bestimmungsgemäß für die Kreditwürdigkeitsprüfung und Kreditpunktebewertung natürlicher Personen verwendet werden sollen, mit Ausnahme von KI-Systemen, die zur Aufdeckung von Finanzbetrug verwendet werden;

Änderungsantrag  723

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 5 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) KI-Systeme, die bestimmungsgemäß für Entscheidungen oder zur wesentlichen Einflussnahme auf Entscheidungen darüber, ob eine natürliche Person für eine Kranken- oder Lebensversicherung in Frage kommt, verwendet werden sollen;

Änderungsantrag  724

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 5 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) KI-Systeme, die bestimmungsgemäß für die Entsendung oder Priorisierung des Einsatzes von Not- und Rettungsdiensten, einschließlich Feuerwehr und medizinischer Nothilfe, verwendet werden sollen;

c) KI-Systeme, die bestimmungsgemäß zur Bewertung und Klassifizierung von Notrufen von natürlichen Personen oder für die Entsendung oder Priorisierung des Einsatzes von Not- und Rettungsdiensten, einschließlich Polizei und Strafverfolgungsbehörden, Feuerwehr und medizinischer Nothilfe, sowie für Systeme für die Triage von Patienten bei der Notfallversorgung verwendet werden sollen;

Änderungsantrag  725

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 6 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden für individuelle Risikobewertungen natürlicher Personen verwendet werden sollen, um das Risiko abzuschätzen, dass eine natürliche Person Straftaten begeht oder erneut begeht oder dass eine Person zum Opfer möglicher Straftaten wird;

entfällt

Änderungsantrag  726

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 6 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden als Lügendetektoren und ähnliche Instrumente oder zur Ermittlung des emotionalen Zustands einer natürlichen Person verwendet werden sollen;

b) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union als Lügendetektoren und ähnliche Instrumente – sofern deren Verwendung gemäß den relevanten nationalen Rechtsvorschriften und denen der Union zugelassen ist – verwendet werden sollen;

Änderungsantrag  727

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 6 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden zur Aufdeckung von Deepfakes gemäß Artikel 52 Absatz 3 verwendet werden sollen;

entfällt

Änderungsantrag  728

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 6 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden zur Bewertung der Verlässlichkeit von Beweismitteln im Zuge der Ermittlung oder Verfolgung von Straftaten verwendet werden sollen;

d) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union zur Unterstützung von Strafverfolgungsbehörden zur Bewertung der Verlässlichkeit von Beweismitteln im Zuge der Ermittlung oder Verfolgung von Straftaten verwendet werden sollen;

Änderungsantrag  729

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 6 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden zur Vorhersage des Auftretens oder erneuten Auftretens einer tatsächlichen oder potenziellen Straftat auf der Grundlage des Profils natürlicher Personen gemäß Artikel 3 Absatz 4 der Richtlinie (EU) 2016/680 oder zur Bewertung von Persönlichkeitsmerkmalen und Eigenschaften oder vergangenen kriminellen Verhaltens natürlicher Personen oder von Gruppen verwendet werden sollen;

entfällt

Änderungsantrag  730

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 6 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden zur Erstellung von Profilen natürlicher Personen gemäß Artikel 3 Absatz 4 der Richtlinie (EU) 2016/680 im Zuge der Aufdeckung, Ermittlung oder Verfolgung von Straftaten verwendet werden sollen;

f) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union zur Unterstützung von Strafverfolgungsbehörden zur Erstellung von Profilen natürlicher Personen gemäß Artikel 3 Absatz 4 der Richtlinie (EU) 2016/680 im Zuge der Aufdeckung, Ermittlung oder Verfolgung von Straftaten oder im Falle von Organen, Einrichtungen oder sonstigen Stellen der Union gemäß Artikel 3 Nummer 5 der Verordnung (EU) 2018/1725 verwendet werden sollen;

Änderungsantrag  731

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 6 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) KI-Systeme, die bestimmungsgemäß zur Kriminalanalyse natürlicher Personen eingesetzt werden sollen und es den Strafverfolgungsbehörden ermöglichen, große komplexe verknüpfte und unverknüpfte Datensätze aus verschiedenen Datenquellen oder in verschiedenen Datenformaten zu durchsuchen, um unbekannte Muster zu erkennen oder verdeckte Beziehungen in den Daten aufzudecken;

g) KI-Systeme, die bestimmungsgemäß von Strafverfolgungsbehörden oder in ihrem Auftrag oder von Organen, Einrichtungen und sonstigen Stellen der Union zur Unterstützung von Strafverfolgungsbehörden zur Kriminalanalyse natürlicher Personen eingesetzt werden sollen und es den Strafverfolgungsbehörden ermöglichen, große komplexe verknüpfte und unverknüpfte Datensätze aus verschiedenen Datenquellen oder in verschiedenen Datenformaten zu durchsuchen, um unbekannte Muster zu erkennen oder verdeckte Beziehungen in den Daten aufzudecken.

Änderungsantrag  732

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 7 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden als Lügendetektoren und ähnliche Instrumente oder zur Ermittlung des emotionalen Zustands einer natürlichen Person verwendet werden sollen;

a) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union als Lügendetektoren und ähnliche Instrumente verwendet werden sollen, sofern ihre Verwendung gemäß den einschlägigen Rechtsvorschriften der Union oder den einschlägigen nationalen Rechtsvorschriften zugelassen ist;

Änderungsantrag  733

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 7 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden zur Bewertung eines Risikos verwendet werden sollen, einschließlich eines Sicherheitsrisikos, eines Risikos der irregulären Einwanderung oder eines Gesundheitsrisikos, das von einer natürlichen Person ausgeht, die in das Hoheitsgebiet eines Mitgliedstaats einzureisen beabsichtigt oder eingereist ist;

b) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union zur Bewertung eines Risikos verwendet werden sollen, einschließlich eines Sicherheitsrisikos, eines Risikos der irregulären Einwanderung oder eines Gesundheitsrisikos, das von einer natürlichen Person ausgeht, die in das Hoheitsgebiet eines Mitgliedstaats einzureisen beabsichtigt oder eingereist ist;

Änderungsantrag  734

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 7 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden zur Überprüfung der Echtheit von Reisedokumenten und Nachweisunterlagen natürlicher Personen und zur Erkennung unechter Dokumente durch Prüfung ihrer Sicherheitsmerkmale verwendet werden sollen;

c) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union zur Überprüfung der Echtheit von Reisedokumenten und Nachweisunterlagen natürlicher Personen und zur Erkennung unechter Dokumente durch Prüfung ihrer Sicherheitsmerkmale verwendet werden sollen;

Änderungsantrag  735

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 7 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) KI-Systeme, die bestimmungsgemäß zuständige Behörden bei der Prüfung von Asyl- und Visumanträgen sowie Aufenthaltstiteln und damit verbundenen Beschwerden im Hinblick auf die Feststellung der Berechtigung der den Antrag stellenden natürlichen Personen unterstützen sollen;

d) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union verwendet werden sollen, um zuständige Behörden bei der Prüfung und Bewertung des Wahrheitsgehalts von Nachweisen von Asyl- und Visumanträgen sowie Aufenthaltstiteln und damit verbundenen Beschwerden im Hinblick auf die Feststellung der Berechtigung der den Antrag stellenden natürlichen Personen zu unterstützen;

Änderungsantrag  736

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 7 – Buchstabe d a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

da) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union in den Bereichen Migration, Asyl und Grenzkontrolle für die Überwachung, Kontrolle oder Verarbeitung von Daten im Zusammenhang mit Grenzkontrolltätigkeiten zur Detektion, Erkennung oder Identifizierung von natürlichen Personen verwendet werden sollen;

Änderungsantrag  737

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 7 – Buchstabe d b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

db) KI-Systeme, die bestimmungsgemäß von zuständigen Behörden oder in deren Namen oder von Organen, Einrichtungen und sonstigen Stellen der Union in den Bereichen Migration, Asyl und Grenzkontrolle für die Vorhersage und Prognose von Trends im Hinblick auf Migration, Bewegungen und Grenzübertritte verwendet werden sollen;

Änderungsantrag  738

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 8 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß Justizbehörden bei der Ermittlung und Auslegung von Sachverhalten und Rechtsvorschriften und bei der Anwendung des Rechts auf konkrete Sachverhalte unterstützen sollen.

a) KI-Systeme, die bestimmungsgemäß von Justiz- oder Verwaltungsbehörden oder in deren Namen zur Unterstützung einer Justiz- oder Verwaltungsbehörde bei der Ermittlung und Auslegung von Sachverhalten und Rechtsvorschriften und bei der Anwendung des Rechts auf konkrete Sachverhalte verwendet oder auf ähnliche Weise in einem alternativem Streitbeilegungsverfahren eingesetzt werden sollen.

Änderungsantrag  739

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 8 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) KI-Systeme, die bestimmungsgemäß verwendet werden sollen, um das Ergebnis einer Wahl oder eines Referendums oder das Wahlverhalten natürlicher Personen bei der Ausübung ihres Wahlrechts bei einer Wahl oder einem Referendum zu beeinflussen. Dies umfasst keine KI-Systeme, deren Ergebnissen natürliche Personen nicht direkt ausgesetzt sind, wie Instrumente zur Organisation, Optimierung und Strukturierung politischer Kampagnen in administrativer und logistischer Hinsicht.

Änderungsantrag  740

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 8 – Buchstabe a b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ab) KI-Systeme, die bestimmungsgemäß von Social-Media-Plattformen, die im Sinne des Artikels 33 der Verordnung (EU) Nr. 2022/2065 als sehr große Online-Plattformen gelten, in ihren Empfehlungssystemen verwendet werden sollen, um dem Empfänger der Dienstleistung auf der Plattform verfügbare nutzergenerierte Inhalte zu empfehlen.

Änderungsantrag  741

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Zweckbestimmung, das System entwickelnde Person(en), Datum und Version des Systems;

a) Zweckbestimmung, Name des Anbieters und Version des Systems mit Angaben dazu, in welcher Beziehung sie zu vorherigen und gegebenenfalls neueren Versionen in den aufeinanderfolgenden Systemüberarbeitungen steht;

Änderungsantrag  742

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 1 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) die Art der Daten, die wahrscheinlich vom System verarbeitet werden oder verarbeitet werden sollen, und im Fall von personenbezogenen Daten die Kategorien natürlicher Personen und Gruppen, die wahrscheinlich betroffen sind oder betroffen sein sollen;

Änderungsantrag  743

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) gegebenenfalls Interaktion oder Verwendung des KI-Systems mit Hardware oder Software, die nicht Teil des KI-Systems selbst sind;

b) gegebenenfalls die Art und Weise der Interaktion oder Verwendung des KI-Systems mit Hardware oder Software, einschließlich anderer KI-Systeme, die nicht Teil des KI-Systems selbst sind;

Änderungsantrag  744

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Versionen der betreffenden Software oder Firmware und etwaige Anforderungen in Bezug auf die Aktualisierung der Versionen;

c) Versionen der betreffenden Software oder Firmware und gegebenenfalls Informationen für den Betreiber über etwaige Anforderungen in Bezug auf die Aktualisierung der Versionen;

Änderungsantrag  745

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 1 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) Beschreibung aller Formen, in denen das KI-System in Verkehr gebracht oder in Betrieb genommen wird;

d) Beschreibung der verschiedenen Konfigurationen und Varianten des KI-Systems, die in Verkehr gebracht oder in Betrieb genommen werden sollen;

Änderungsantrag  746

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 1 – Buchstabe f a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

fa) Beschreibung der Schnittstelle des Betreibers;

Änderungsantrag  747

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 1 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) Gebrauchsanweisungen für die Nutzer und gegebenenfalls Aufbau- oder Installationsanweisungen;

g) Gebrauchsanweisungen für die Betreiber gemäß Artikel 13 Absätze 2 und 3 sowie Artikel 14 Absatz 4 Buchstabe e und gegebenenfalls Aufbau- oder Installationsanweisungen;

Änderungsantrag  748

 

Vorschlag für eine Verordnung

Anhang IV– Absatz 1 – Nummer 1 – Buchstabe g a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ga) detaillierte und leicht verständliche Beschreibung des wichtigsten Optimierungsziels bzw. der wichtigsten Optimierungsziele des Systems;

Änderungsantrag  749

 

Vorschlag für eine Verordnung

Anhang IV– Absatz 1 – Nummer 1 – Buchstabe g b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

gb) detaillierte und leicht verständliche Beschreibung der erwarteten Ausgabe und der erwarteten Ausgabequalität des Systems;

Änderungsantrag  750

 

Vorschlag für eine Verordnung

Anhang IV– Absatz 1 – Nummer 1 – Buchstabe g c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

gc) detaillierte und leicht verständliche Anweisungen für die Interpretation der Ausgabe des Systems;

Änderungsantrag  751

 

Vorschlag für eine Verordnung

Anhang IV– Absatz 1 – Nummer 1 – Buchstabe g d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

gd) Beispiele von Szenarien, für die das System nicht verwendet werden sollte;

Änderungsantrag  752

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 2 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Entwurfsspezifikationen des Systems, insbesondere die allgemeine Logik des KI-Systems und der Algorithmen; wichtigste Entwurfsentscheidungen mit den Gründen und Annahmen, auch in Bezug auf Personen oder Personengruppen, auf die das System angewandt werden soll; hauptsächliche Klassifizierungsentscheidungen; was das System optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; Entscheidungen über mögliche Kompromisse in Bezug auf die technischen Lösungen, mit denen die Anforderungen in Titel III Kapitel 2 erfüllt werden sollen

b) Beschreibung der Architektur, Entwurfsspezifikationen, Algorithmen und Datenstrukturen, einschließlich einer Aufgliederung seiner Komponenten und Schnittstellen, wie sie miteinander in Beziehung stehen und wie sie für die allgemeine Verarbeitung oder Logik des KI-Systems sorgen; wichtigste Entwurfsentscheidungen mit den Gründen und Annahmen, auch in Bezug auf Personen oder Personengruppen, auf die das System angewandt werden soll; hauptsächliche Klassifizierungsentscheidungen; was das System optimieren soll und welche Bedeutung den verschiedenen Parametern dabei zukommt; Entscheidungen über mögliche Kompromisse in Bezug auf die technischen Lösungen, mit denen die Anforderungen in Titel III Kapitel 2 erfüllt werden sollen

Änderungsantrag  753

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Beschreibung der Systemarchitektur, aus der hervorgeht, wie Softwarekomponenten aufeinander aufbauen oder einander zuarbeiten und in die Gesamtverarbeitung integriert sind; zum Entwickeln, Trainieren, Testen und Validieren des KI-Systems verwendete Rechenressourcen;

c) entfällt

Änderungsantrag  754

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 2 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) Bewertung der nach Artikel 14 erforderlichen Maßnahmen der menschlichen Aufsicht, mit einer Bewertung der technischen Maßnahmen, die erforderlich sind, um den Nutzern gemäß Artikel 13 Absatz 3 Buchstabe d die Interpretation der Ergebnisse von KI-Systemen zu erleichtern;

e) Bewertung der nach Artikel 14 erforderlichen Maßnahmen der menschlichen Aufsicht, mit einer Bewertung der technischen Maßnahmen, die erforderlich sind, um den Betreibern gemäß Artikel 13 Absatz 3 Buchstabe d die Interpretation der Ergebnisse von KI-Systemen zu erleichtern;

Änderungsantrag  755

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) verwendete Validierungs- und Testverfahren, mit Angaben zu den verwendeten Validierungs- und Testdaten und deren Hauptmerkmalen; Parameter, die zur Messung der Genauigkeit, Robustheit, Cybersicherheit und der Erfüllung anderer einschlägiger Anforderungen nach Titel III Kapitel 2 sowie potenziell diskriminierender Auswirkungen verwendet werden; Testprotokolle und alle von den verantwortlichen Personen datierten und unterzeichneten Testberichte, auch in Bezug auf die in Buchstabe f genannten vorab bestimmten Änderungen

g) verwendete Validierungs- und Testverfahren, mit Angaben zu den verwendeten Validierungs- und Testdaten und deren Hauptmerkmalen; Parameter, die zur Messung der Genauigkeit, Robustheit und der Erfüllung anderer einschlägiger Anforderungen nach Titel III Kapitel 2 sowie potenziell diskriminierender Auswirkungen verwendet werden; Testprotokolle und alle von den verantwortlichen Personen datierten und unterzeichneten Testberichte, auch in Bezug auf die in Buchstabe f genannten vorab bestimmten Änderungen

Änderungsantrag  756

 

Vorschlag für eine Verordnung

Anhang IV– Absatz 1 – Nummer 2 – Buchstabe g a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ga) mit Blick auf die Cybersicherheit ergriffene Maßnahmen.

Änderungsantrag  757

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 3

 

Vorschlag der Kommission

Geänderter Text

3. Detaillierte Informationen über die Überwachung, Funktionsweise und Kontrolle des KI-Systems, insbesondere in Bezug auf: seine Fähigkeiten und Leistungsgrenzen, mit dem Genauigkeitsgrad für bestimmte Personen oder Personengruppen, auf die das System angewandt werden soll, und dem insgesamt erwarteten Genauigkeitsgrad in Bezug auf seine Zweckbestimmung; vorhersehbare unbeabsichtigte Ergebnisse und Risikoquellen für die Gesundheit und Sicherheit, die Grundrechte und eine etwaige Diskriminierung angesichts der Zweckbestimmung des KI-Systems; die nach Artikel 14 erforderlichen Maßnahmen der menschlichen Aufsicht, einschließlich der technischen Maßnahmen, die getroffen wurden, um den Nutzern die Interpretation der Ergebnisse von KI-Systemen zu erleichtern; gegebenenfalls Spezifikationen für die Eingabedaten;

3. Detaillierte Informationen über die Überwachung, Funktionsweise und Kontrolle des KI-Systems, insbesondere in Bezug auf: seine Fähigkeiten und Leistungsgrenzen, mit dem Genauigkeitsgrad für bestimmte Personen oder Personengruppen, auf die das System angewandt werden soll, und dem insgesamt erwarteten Genauigkeitsgrad in Bezug auf seine Zweckbestimmung; vorhersehbare unbeabsichtigte Ergebnisse und Risikoquellen für die Gesundheit und Sicherheit, die Grundrechte und eine etwaige Diskriminierung angesichts der Zweckbestimmung des KI-Systems; die nach Artikel 14 erforderlichen Maßnahmen der menschlichen Aufsicht, einschließlich der technischen Maßnahmen, die getroffen wurden, um den Betreibern die Interpretation der Ergebnisse von KI-Systemen zu erleichtern; gegebenenfalls Spezifikationen für die Eingabedaten;

Änderungsantrag  758

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

3a. Darlegungen zur Eignung der Leistungsparameter für das spezifische KI-System;

Änderungsantrag  759

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 3 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

3b. Informationen über den Energieverbrauch des KI-Systems während der Entwicklungsphase und den erwarteten Energieverbrauch während der Nutzung, wobei etwaige einschlägige Rechtsvorschriften der Union und nationale Rechtsvorschriften zu berücksichtigen sind;

Änderungsantrag  760

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 5

 

Vorschlag der Kommission

Geänderter Text

5. Beschreibung aller an dem System während seines Lebenszyklus vorgenommenen Änderungen;

5. Beschreibung aller relevanten vom Anbieter an dem System während seines Lebenszyklus vorgenommenen Änderungen;

Änderungsantrag  761

 

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 6

 

Vorschlag der Kommission

Geänderter Text

6. Aufstellung der vollständig oder teilweise angewandten harmonisierten Normen, deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht worden sind; falls keine solchen harmonisierten Normen angewandt werden, eine detaillierte Beschreibung der Lösungen, mit denen die Anforderungen in Titel III Kapitel 2 erfüllt werden sollen, mit einer Aufstellung anderer einschlägiger Normen und technischer Spezifikationen;

6. Aufstellung der vollständig oder teilweise angewandten harmonisierten Normen, deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht worden sind; falls keine solchen harmonisierten Normen angewandt werden, eine detaillierte Beschreibung der Lösungen, mit denen die Anforderungen in Titel III Kapitel 2 erfüllt werden sollen, mit einer Aufstellung anderer einschlägiger Normen oder gemeinsamer Spezifikationen;

Änderungsantrag  762

 

Vorschlag für eine Verordnung

Anhang V – Teil 1 – Nummer 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

4a. wenn ein KI-System die Verarbeitung personenbezogener Daten erfordert, eine Erklärung darüber, dass das KI-System den Verordnungen (EU) 2016/679 und (EU) 2018/1725 sowie der Richtlinie (EU) 2016/680 entspricht.

Änderungsantrag  763

 

Vorschlag für eine Verordnung

Anhang V – Absatz 1 – Nummer 7

 

Vorschlag der Kommission

Geänderter Text

7. Ort und Datum der Ausstellung der Erklärung, Name und Funktion des Unterzeichners sowie Angabe, für wen und in wessen Namen diese Person unterzeichnet hat, Unterschrift.

7. Ort und Datum der Ausstellung der Erklärung, Unterschrift, Name und Funktion des Unterzeichners sowie Angabe, für wen und in wessen Namen diese Person unterzeichnet hat, Unterschrift.

Änderungsantrag  764

 

Vorschlag für eine Verordnung

Anhang VII – Nummer 4 – Nummer 4.5

 

Vorschlag der Kommission

Geänderter Text

4.5. Sofern dies für die Bewertung der Konformität des Hochrisiko-KI-Systems mit den in Titel III Kapitel 2 festgelegten Anforderungen notwendig ist, wird der notifizierten Stelle auf begründeten Antrag Zugang zum Quellcode des KI-Systems gewährt.

4.5. Sofern dies für die Bewertung der Konformität der Hochrisiko-KI-Systeme mit den in Titel III Kapitel 2 festgelegten Anforderungen notwendig ist, und nachdem alle anderen sinnvollen Möglichkeiten der Überprüfung der Konformität ausgeschöpft sind oder sich als unzureichend erwiesen haben, wird der notifizierten Stelle auf deren begründetes Verlangen Zugang zu den Trainingsmodellen und trainierten Modellen des KI-Systems, einschließlich seiner relevanten Parameter, gewährt. Ein solcher Zugang unterliegt den bestehenden EU-Rechtsvorschriften zum Schutz von geistigem Eigentum und Geschäftsgeheimnissen. Sie treffen technische und organisatorische Maßnahmen, um den Schutz des geistigen Eigentums und der Betriebsgeheimnisse zu wahren.

Änderungsantrag  765

 

Vorschlag für eine Verordnung

Anhang VIII – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Für Hochrisiko-KI-Systeme, die gemäß Artikel 51 zu registrieren sind, werden folgende Informationen bereitgestellt und danach auf dem neuesten Stand gehalten:

Abschnitt A – Für Hochrisiko-KI-Systeme, die gemäß Artikel 51 Absatz 1 zu registrieren sind, werden folgende Informationen bereitgestellt und danach auf dem neuesten Stand gehalten:

Änderungsantrag  766

 

Vorschlag für eine Verordnung

Anhang VIII – Nummer 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

4a. Handelsname des Basismodells und etwaige zusätzliche eindeutige Angaben, die die Identifizierung und Rückverfolgbarkeit ermöglichen

Änderungsantrag  767

 

Vorschlag für eine Verordnung

Anhang VIII – Nummer 5

 

Vorschlag der Kommission

Geänderter Text

5. Beschreibung der Zweckbestimmung des KI-Systems;

5. Eine einfache und verständliche Beschreibung

 

a) der Zweckbestimmung des KI-Systems;

 

b) der KI-unterstützten Komponenten und Funktionen;

 

c) eine grundlegende Erklärung der Logik des KI-Systems

Änderungsantrag  768

 

Vorschlag für eine Verordnung

Anhang VIII – Nummer 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

5a. gegebenenfalls die Kategorien und die Art der Daten, die wahrscheinlich oder voraussichtlich vom KI-System verarbeitet werden.

Änderungsantrag  769

 

Vorschlag für eine Verordnung

Anhang VIII – Nummer 11

 

Vorschlag der Kommission

Geänderter Text

11. elektronische Gebrauchsanweisungen; dies gilt nicht für Hochrisiko-KI-Systeme in den Bereichen Strafverfolgung und Migration, Asyl und Grenzkontrolle gemäß Anhang III Nummern 1, 6 und 7;

entfällt

Änderungsantrag  770

 

Vorschlag für eine Verordnung

ANHANG VIII – ABSCHNITT B (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ABSCHNITT B – Für Hochrisiko-KI-Systeme, die gemäß Artikel 51 Absatz 1a und 1b zu registrieren sind, werden folgende Informationen bereitgestellt und danach auf dem neuesten Stand gehalten.

 

1. Name, Anschrift und Kontaktdaten des Betreibers;

 

2. Name, Anschrift und Kontaktdaten der Person, die im Namen des Betreibers Informationen übermittelt;

 

3. Handelsname des Hochrisiko-KI-Systems und etwaige zusätzliche eindeutige Angaben, die die Identifizierung und Rückverfolgbarkeit des verwendeten KI-Systems ermöglichen;

 

4. a) Eine einfache und verständliche Beschreibung der bestimmungsgemäßen Verwendung des KI-Systems, einschließlich der spezifischen Ergebnisse, die durch die Nutzung des Systems angestrebt werden, sowie des geografischen und zeitlichen Anwendungsbereichs;

 

b) gegebenenfalls die Kategorien und die Art der Daten, die vom KI-System verarbeitet werden sollen;

 

c) Regelungen für menschliche Aufsicht und Verwaltung

 

d) gegebenenfalls die Stellen oder natürlichen Personen, die für die von einem KI-System getroffenen oder unterstützten Entscheidungen verantwortlich sind;

 

5. eine Zusammenfassung der Ergebnisse der Folgenabschätzung im Hinblick auf die Grundrechte, die gemäß Artikel 29a durchgeführt wurde

 

6. die URL des Eintrags des KI-Systems in der EU-Datenbank durch seinen Anbieter

 

7. gegebenenfalls eine Zusammenfassung der gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 durchgeführten Folgenabschätzung im Hinblick auf den Datenschutz, wie in Artikel 29 Absatz 6 dieser Verordnung festgehalten.

Änderungsantrag  771

 

Vorschlag für eine Verordnung

Anhang VIII – Abschnitt C (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Abschnitt C – Für Basismodelle, die gemäß Artikel 28b Buchstabe e zu registrieren sind, werden folgende Informationen bereitgestellt und danach auf dem neuesten Stand gehalten:

 

1. Name, Anschrift und Kontaktdaten des Anbieters;

 

2. bei Vorlage von Informationen durch eine andere Person im Namen des Anbieters: Name, Anschrift und Kontaktdaten dieser Person;

 

3. Name, Anschrift und Kontaktdaten des Bevollmächtigten, falls zutreffend;

 

4. Handelsname und etwaige zusätzliche eindeutige Angaben, die die Identifizierung des Basismodells ermöglichen

 

5. Beschreibung der Datenquellen, die bei der Entwicklung des Basismodells verwendet wurden

 

6. Beschreibung der Fähigkeiten und Leistungsgrenzen des Basismodells, einschließlich der vernünftigerweise vorhersehbaren Risiken und der ergriffenen Maßnahmen zu ihrer Minderung sowie der nicht geminderten Restrisiken mit einer Erklärung, warum sie nicht gemindert werden können

 

7. Beschreibung der vom Basismodell verwendeten Trainingsressourcen, einschließlich der erforderlichen Rechenleistung, der Trainingszeit und anderer einschlägiger Angaben im Zusammenhang mit der Größe und der Leistung des Modells 8. Beschreibung der Leistung des Modells, einschließlich bei öffentlichen oder branchenspezifischen Benchmarks nach dem neuesten Stand der Technik

 

8. Beschreibung der Ergebnisse einschlägiger interner und externer Erprobungen sowie der Optimierung des Modells

 

9. Mitgliedstaaten, in denen das Basismodell in der Union in Verkehr gebracht, in Betrieb genommen oder bereitgestellt wird/wurde;

 

10. URL-Adresse für zusätzliche Informationen (fakultativ).


 

BEGRÜNDUNG

Die Mitberichterstatter teilen die Ansicht, dass in Europa entwickelte und genutzte künstliche Intelligenz auf den Menschen ausgerichtet und vertrauenswürdig sein sowie die Grundrechte und die in den Verträgen verankerten Werte der Union achten sollte. Indes sollte die Verordnung die Innovation und die Rahmenbedingungen für Unternehmen nicht behindern, sondern vielmehr unterstützen. Beide Ziele lassen sich am besten erreichen, indem im gesamten Verordnungsvorschlag für mehr Rechtssicherheit und Klarheit gesorgt wird, um den privaten Sektor und die Behörden bei der Einhaltung der neuen Verpflichtungen zu unterstützen. Der Berichtsentwurf enthält die Punkte, auf die sich die Mitberichterstatter leicht einigen konnten, und spricht alle wichtigen Elemente des Verordnungsentwurfs an.

 

Hinsichtlich des Anwendungsbereichs stimmen die Mitberichterstatter dem von der Kommission vorgeschlagenen risikobasierten Ansatz zu. Demgemäß gelten die in dieser Verordnung festgelegten Verpflichtungen nur für verbotene Praktiken, Hochrisiko-KI-Systeme und bestimmte KI-Systeme, die Transparenz erfordern. Von daher sollte kein KI-System von vornherein ausgeschlossen werden, weder durch die Definition von „künstlicher Intelligenz“ noch durch die Einführung von Ausnahmen für bestimmte Arten von KI-Systemen, einschließlich Allzweck-KI. Sind Anbieter aus objektiven Gründen nicht in der Lage, die Verpflichtungen aus dieser Verordnung zu erfüllen, sollten sie Vereinbarungen mit den Nutzern treffen können, um die Verantwortlichkeiten zu teilen. Ein wesentliches Element des Berichtsentwurfs ist zudem die Angleichung des Textes an die DSGVO, da die beiden Verordnungen im Hinblick auf die Entwicklung und Nutzung von KI in Europa komplementär zueinander wirken sollten.

 

Im Hinblick auf verbotene Praktiken haben sich die Mitberichterstatter darauf geeinigt, Praktiken in die Liste aufzunehmen, die „vorausschauender Polizeiarbeit“ gleichkommen, da sie die Ansicht teilen, dass es liberalen Gesellschaften nicht gestattet ist, Technologie unter Verletzung des Grundprinzips der Unschuldsvermutung einzusetzen. 

 

In Bezug auf Hochrisiko-KI-Systeme, die im Mittelpunkt der Verordnung stehen, schlagen die Mitberichterstatter vor, in die Liste der Hochrisiko-KI-Systeme eine Reihe von Anwendungsfällen aufzunehmen. Da Kinder eine besonders gefährdete Kategorie sind, sollten KI-Systeme, die zur Beeinflussung oder Prägung ihrer Entwicklung eingesetzt werden, als mit einem hohen Risiko behaftet eingestuft werden. KI-Systeme, die von Kandidaten oder Parteien eingesetzt werden, um die Stimmabgabe bei Kommunalwahlen, Parlamentswahlen und Europawahlen zu beeinflussen, und KI-Systeme, die zur Stimmenauszählung verwendet werden, haben das Potenzial, durch die Beeinflussung einer großen Anzahl von Bürgerinnen und Bürgern der Union das Funktionieren unserer Demokratie zu beeinträchtigen. Sie sollten daher als mit einem hohen Risiko behaftet angesehen werden. KI-Systeme, die zur Triage von Patienten im Gesundheitswesen eingesetzt werden, und KI-Systeme, die dazu verwendet werden, die Versicherungsfähigkeit für Kranken- und Lebensversicherungen zu bestimmen, werden ebenfalls als mit einem hohen Risiko behaftet angesehen. Wegen ihres Täuschungspotenzials sollten zwei Arten von KI-Systemen sowohl den Transparenzanforderungen als auch den Konformitätsanforderungen für Hochrisiko-KI-Systeme unterliegen: Deepfakes, die wirkliche Personen darstellen, und redaktionelle Inhalte, die von KI („KI-Autoren“) geschrieben wurden. Die Mitberichterstatter betonen, dass Hochrisiko-KI-Systeme weder verboten werden noch als unerwünscht anzusehen sind. Im Gegenteil, die Einhaltung der in dieser Verordnung festgelegten Konformitätsanforderungen macht solche Systeme vertrauenswürdiger und erhöht die Wahrscheinlichkeit, dass sie auf dem europäischen Markt erfolgreich sind. 

 

In dem Berichtsentwurf wird die Verantwortungskette genauer ins Auge gefasst und versucht, einige Bestimmungen zu präzisieren und wieder ins Gleichgewicht zu bringen. Namentlich wurde in Bezug auf die Daten-Governance die Kohärenz mit der DSGVO gestärkt und die mögliche zusätzliche Rechtsgrundlage für die Verarbeitung personenbezogener Daten entfernt. Zudem wurde klargestellt, dass „fehlerfreie“ Datensätze ein übergeordnetes Ziel sein sollten, das so weit wie möglich erreicht werden sollte, und nicht eine präzise Anforderung. Geklärt wurden auch die Fälle, in denen Datensätze im Besitz von Nutzern sind, während der Anbieter nur die allgemeine Architektur des Systems aufbaut. Die meisten dieser Klarstellungen tragen Bedenken der Industrie Rechnung, da die KI-Wertschöpfungskette nicht immer linear verläuft und die Verantwortlichkeiten zwischen den verschiedenen Akteuren in der Wertschöpfungskette klar abgegrenzt werden müssen. 

 

Die Nutzer von Hochrisiko-KI-Systemen spielen auch eine Rolle beim Schutz der Gesundheit, der Sicherheit und der Grundrechte der Bürgerinnen und Bürger der EU sowie der Werte der EU. Das fängt damit an, dass sie sicherstellen, dass die Verantwortung für die menschliche Aufsicht über Hochrisiko-KI-Systeme kompetenten Personen übertragen wird, und geht damit weiter, dass sie eine aktivere Rolle bei der Meldung von Vorfällen oder Fehlfunktionen von KI-Systemen übernehmen, da sie manchmal am besten in der Lage sind, solche Vorfälle oder Fehlfunktionen zu erkennen. An Nutzer, bei denen es sich um Behörden handelt, werden in demokratischen Gesellschaften erhöhte Erwartungen im Hinblick auf die Transparenz gestellt. Von daher sollten Behörden sowie Organe, Einrichtungen und sonstige Stellen der Union den Einsatz von Hochrisiko-KI-Systemen in der EU-weiten Datenbank registrieren. Dies ermöglicht eine stärkere demokratische Aufsicht, öffentliche Kontrolle und Rechenschaftspflicht sowie mehr Transparenz gegenüber der Öffentlichkeit in Bezug auf den Einsatz von KI-Systemen in sensiblen Bereichen, die sich auf das Leben der Menschen auswirken. Darüber hinaus sollten Nutzer von den in Anhang III genannten Hochrisiko-KI-Systemen, die natürliche Personen betreffende Entscheidungen treffen oder entsprechende Entscheidungsfindungsprozesse unterstützen, die natürlichen Personen darüber informieren, dass sie dem Einsatz eines Hochrisiko-KI-Systems ausgesetzt sind.

 

Mehrere Bestimmungen des Berichtsentwurfs legen den Fokus auf Governance und Durchsetzung, da die Mitberichterstatter davon überzeugt sind, dass dies wesentliche Elemente sind, um die wirksame und einheitliche Umsetzung des KI-Gesetzes in der gesamten Union zu ermöglichen, und somit zur Schaffung eines wirklichen Binnenmarktes für KI beitragen.

 

Zu diesem Zweck wurden die Aufgaben des KI-Ausschusses erweitert. Der KI-Ausschuss sollte eine wichtigere Rolle bei der einheitlichen Anwendung der Verordnung und bei der Abgabe von Stellungnahmen und Empfehlungen an die Kommission – beispielsweise zu notwendigen Änderungen des Anhangs III – und an die nationalen Aufsichtsbehörden spielen. Der Ausschuss sollte als Forum für den Austausch zwischen den nationalen Aufsichtsbehörden fungieren und gleichzeitig ein Ort für die Schlichtung von Streitigkeiten zwischen Behörden von zwei oder mehr Mitgliedstaaten sein, um eine Fragmentierung des Binnenmarkts durch eine uneinheitliche Durchsetzung zu vermeiden. Darüber hinaus sollte der Ausschuss angesichts seiner erweiterten Rolle und vermehrten Verantwortlichkeiten mindestens zweimal jährlich Konsultationen mit der Industrie, Start-up-Unternehmen und KMU, der Zivilgesellschaft und akademischen Kreisen organisieren, um seine Aufgaben in Zusammenarbeit mit allen relevanten Interessenträgern zu erfüllen. 

Was die nationale Ebene angeht, haben die Mitberichterstatter die Notwendigkeit einer engen Zusammenarbeit zwischen den Marktüberwachungsbehörden und den Datenschutzbehörden betont, da es zur Durchsetzung der KI-Verordnung beider Kompetenzprofile bedarf, die überdies regelmäßig auf den neuesten Stand gebracht werden sollten. Bei Grundrechtsverletzungen sollten auch die maßgeblichen für Grundrechte zuständige Stellen eng eingebunden werden.

 

Um etwaige Fragen anzugehen, die Einzelpersonen in mehreren Mitgliedstaaten betreffen, schlagen die Mitberichterstatter einen neuen Durchsetzungsmechanismus der Kommission vor, der in Fällen von weit verbreiteten Verstößen (in drei oder mehr Mitgliedstaaten) auszulösen ist, auch im Falle der Untätigkeit gegenüber einem Verstoß, von dem mindestens drei Mitgliedstaaten betroffen sind. Dieser Mechanismus, der auf dem Modell des Gesetzes über digitale Dienste basiert, aber an die unterschiedliche Natur der KI-Rechtsvorschriften angepasst ist, zielt darauf ab, einige der Durchsetzungsprobleme anzugehen, die in anderen Governancestrukturen beobachtet wurden, um zur einheitlichen Durchführung dieser Verordnung beizutragen und den digitalen Binnenmarkt zu stärken. Gemäß dem Mechanismus sollte die Kommission in solchen Fällen weit verbreiteter Verstöße die Befugnisse einer Marktüberwachungsbehörde nach dem Vorbild der Marktüberwachungsverordnung haben.

 

Die Mitberichterstatter halten es für wichtig, die Beteiligung von Interessenträgern und Organisationen der Zivilgesellschaft in Bezug auf mehrere wesentliche Bestimmungen der Verordnung zu stärken, wie zum Beispiel im Hinblick auf die Aktualisierung der Liste der Hochrisiko-KI-Systeme, den Normungsprozess sowie die Tätigkeiten des Ausschusses und der Reallabore. Um sicherzustellen, dass sich Einzelpersonen in angemessener Weise wehren können, wenn ihre Rechte durch die Nutzung eines KI-Systems verletzt werden, aber auch um zur Schaffung von Vertrauen in KI-Systeme und ihre weit verbreitete Nutzung beizutragen, haben die Mitberichterstatter ein spezielles Kapitel über Rechtsbehelfe für sowohl natürliche als auch juristische Personen hinzugefügt.

 

Die Mitberichterstatter möchten gemeinsam betonen, dass das Ziel des KI-Gesetzes darin besteht, sowohl den Schutz der Gesundheit, der Sicherheit, der Grundrechte und der Werte der Union als auch gleichzeitig die Verbreitung der KI in der gesamten Union, eine stärkere Integration des digitalen Binnenmarkts und ein für Unternehmertum und Innovation geeignetes rechtliches Umfeld sicherzustellen. Diese Vision hat ihre Arbeit an dieser Verordnung geleitet und wird sie auch weiterhin leiten.

 


STELLUNGNAHME DES AUSSCHUSSES FÜR INDUSTRIE, FORSCHUNG UND ENERGIE (14.6.2022)

für den Ausschuss für Binnenmarkt und Verbraucherschutz und den Ausschuss für bürgerliche Freiheiten, Justiz und Inneres

zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union

(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))

Verfasserin der Stellungnahme (*): Eva Maydell

(*) Assoziierter Ausschuss – Artikel 57 der Geschäftsordnung

 

KURZE BEGRÜNDUNG

Einleitung

Die Berichterstatterin begrüßt den Vorschlag der Kommission zu einem Gesetz über künstliche Intelligenz (KI) und besonders den darin vorgebrachten horizontalen Risikoansatz. Dieser Ansatz ermöglicht sowohl die Entwicklung von KI-Systemen im Einklang mit den europäischen Werten als auch die Förderung des Vertrauens der Gesellschaft in diese neuen Technologien, sodass die EU die wirtschaftlichen und sozialen Vorteile von KI in vollem Maße ausschöpfen kann.

 

Die Berichterstatterin vertritt die Ansicht, dass im Rahmen des Gesetzes über künstliche Intelligenz (KI-Gesetz) eine Umgebung geschaffen werden muss, in der sich Freiheit und Aufsicht die Waage halten. Die Berichterstatterin schlägt vor, dass weitere Bestimmungen erlassen werden, damit Unternehmen – insbesondere Start-ups und KMU – trotz der neuen, von ihnen zu erfüllenden Verpflichtungen weiterhin im Wettbewerb bestehen und kreativ sein können. Die Berichterstatterin ist der Ansicht, dass dies sowohl die Legitimation als auch die Relevanz des KI-Gesetzes erhöht. Den Unternehmen müssen klarere Leitlinien, einfachere Instrumente und wirksamere Ressourcen an die Hand gegeben werden, damit diese die Gesetzgebung bewältigen können. Auf diese Weise können Innovationen, Entwicklungen und die Marktfähigkeit im Bereich der künstlichen Intelligenz gefördert werden.

 

Daher werden in dem Entwurf der Berichterstatterin vier Hauptziele in dieser Richtung verfolgt:

 

1. Verstärkte Maßnahmen zur Unterstützung von Innovationen, wie die für Reallabore vorgesehenen, mit einem besonderen Schwerpunkt auf Start-ups und KMU

2. Erarbeitung einer präzisen und international anerkannten Definition eines Systems für künstliche Intelligenz (KI-System) sowie Einführung von hohen, jedoch realistischen Standards für Genauigkeit, Robustheit, Cybersicherheit und Daten

3. Förderung der Einführung von KI-Systemen durch die Industrie, indem das Hauptaugenmerk auf gesellschaftliches Vertrauen und Verantwortung in der Wertschöpfungskette gelegt wird

4. Sicherung der Zukunftsfähigkeit des Gesetzes durch eine bessere Verknüpfung mit dem ökologischen Wandel und möglichen Änderungen in der Industrie, der Technologie und der Leistungsfähigkeit von KI

 

In diesem Entwurf einer Stellungnahme geht es hauptsächlich um Fragen im Zusammenhang mit den Kompetenzen des Ausschusses für Industrie, Forschung und Energie (ITRE), aber auch um allgemeinere Themen wie Innovation, Wettbewerbsfähigkeit, Forschung, Nachhaltigkeit und künftige Veränderungen in der Industrie.

 

Förderung von Innovation, Fokus auf Start-ups und KMU, Förderung von Reallaboren

Die Berichterstatterin begrüßt die Einführung von Artikel 55 über Maßnahmen für kleine Anbieter, ist jedoch der Meinung, dass KMU und Start-ups im Rahmen eines ganzheitlichen Ansatzes stärker in dem KI-Gesetz berücksichtigt werden sollten. Dies bezieht sich im Speziellen auf die Entwicklung von Verhaltenskodizes, die Standardisierung sowie die Vertretung im Europäischen Ausschuss für künstliche Intelligenz. Besonders großen Wert legt die Berichterstatterin auf die Bereitstellung von Möglichkeiten für KMU und Start-ups, in KI-Reallabore einbezogen zu werden. Aus diesem Grund schlägt die Berichterstatterin vor, die bestehenden Bestimmungen zu stärken, indem die Reallabore vermehrt auf europäischer Ebene eingesetzt werden und so die Einheit des Binnenmarkts bewahrt wird. Die Berichterstatterin schlägt vor, ein EU-Programm für KI-Reallabore zu entwickeln, dessen Modalitäten in einem neuen Anhang dargelegt werden.

 

Klare Definition und realistische Standards

Die Berichterstatterin fordert die Verwendung einer international anerkannten Definition eines KI-Systems, die im Einklang mit den allgemeinen Zielen der EU steht, globale Standards zu setzen. Dies erfordert eine enge Zusammenarbeit mit den transatlantischen Partnern und gleichgesinnten Parteien sowie die Schaffung von Rechtssicherheit für Unternehmen, Bürger und die Zivilgesellschaft. Die Berichterstatterin ist der Meinung, dass hohe Standards für Genauigkeit, Robustheit und Cybersicherheit sowie für Daten und Datenverwaltung der Schlüssel zur Entwicklung sicherer KI-Systeme sind, welche den Schutz der Grundrechte gewährleisten. Wichtig ist hierbei, ein Gleichgewicht zwischen dem praktischen und dem pragmatischen Ansatz zu finden, um dies zu erreichen. Die Berichterstatterin fordert eine gemeinsame europäische Benchmarking-Behörde, die nationale Metrologie- und Benchmarking-Behörden zusammenbringt, um einen einheitlichen Ansatz bei der Messung der Genauigkeit, Robustheit und weiterer relevanter Kriterien umzusetzen.

 

Förderung der Einführung von KI-Systemen Förderung des gesellschaftlichen Vertrauens und Verantwortung in der Wertschöpfungskette

Um die Einführung und Entwicklung von KI-Systemen zu unterstützen, muss nach Ansicht der Berichterstatterin das gesellschaftliche Vertrauen von Unternehmen und Bürgern gefördert werden. Um die Herausforderung des gesellschaftlichen Vertrauens zu bewältigen, sollte nach Ansicht der Berichterstatterin eine partnerschaftliche Zusammenarbeit zwischen Entwicklern und Nutzern von KI gefördert werden, die besser auf ihre Verantwortung entlang der Wertschöpfungskette abgestimmt ist. Darüber hinaus sollen der Verhaltenskodex gefestigt und die Maßnahmen bezüglich Reallaboren erweitert werden, um die Einhaltung von Vorschriften durch Gestaltung zu ermöglichen. Dies wiederum schafft ein gesundes und integriertes Ökosystem, welches dazu beiträgt, mangelnde Rechtssicherheit zu beseitigen und Lücken bei der Umsetzung zu schließen. Alle diese Maßnahmen schaffen wiederum gesellschaftliches Vertrauen.

 

Sicherung der Zukunftsfähigkeit, Nachhaltigkeit und Änderungen in der Wirtschaft und bei der Leistungsfähigkeit von künstlicher Intelligenz

KI ist eine reife und einsatzbereite Technologie, mit der die ständig wachsende Menge an Daten, die bei industriellen Prozessen entstehen, verarbeitet werden kann. Um Investitionen in KI-basierte Analyse- und Optimierungslösungen zu erleichtern, sollte mit dieser Verordnung ein berechenbares Umfeld für risikoarme industrielle Lösungen geschaffen werden. Darüber hinaus sollte diese Verordnung zukünftigen Änderungen in der Wirtschaft und bei der Leistungsfähigkeit von künstlicher Intelligenz Rechnung tragen. Deshalb schlägt die Berichterstatterin vor, die hochrangige Expertengruppe für KI, die die Kommission und den Europäischen Ausschuss für künstliche Intelligenz einzubinden und die Markttrends und die Zukunftsaussichten durch den Europäischen Ausschuss für KI zu beobachten.

ÄNDERUNGSANTRÄGE

Der Ausschuss für Industrie, Forschung und Energie ersucht den Ausschuss für Binnenmarkt und Verbraucherschutz und den Ausschuss für bürgerliche Freiheiten, Justiz und Inneres, die beide federführend sind, folgende Änderungsanträge zu berücksichtigen:

Änderungsantrag  1

 

Vorschlag für eine Verordnung

Erwägung 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Damit die Mitgliedstaaten ihre Klimaziele erreichen und die Ziele der Vereinten Nationen für nachhaltige Entwicklung erreichen können, sollten die Unternehmen in der EU außerdem dazu angehalten werden, den verfügbaren technologischen Fortschritt bei der Verwirklichung dieses Ziels zu nutzen. KI ist eine gut entwickelte und anwendungsbereite Technologie, die eingesetzt werden kann, um die stets wachsende Datenmenge zu verarbeiten, die bei den Abläufen in der Wirtschaft entsteht. Um Investitionen Analyse- und Optimierungslösungen auf KI-Basis zu erleichtern, die dazu beitragen können, die Klimaziele zu erreichen, sollte diese Verordnung eine vorhersehbare und angemessene Umgebung für industrielle Lösungen mit geringem Risiko schaffen. Um die Kohärenz zu gewährleisten, setzt dies voraus, dass KI-Systeme selbst nachhaltig konzipiert werden müssen, um den Ressourcen- und Energieverbrauch zu verringern und dadurch die Umweltbelastung zu begrenzen.

Änderungsantrag  2

 

Vorschlag für eine Verordnung

Erwägung 3 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3b) Darüber hinaus muss sich die EU den Hauptlücken und Barrieren widmen, die das Potenzial des digitalen Wandels behindern, um die Entwicklung von künstlicher Intelligenz gemäß den Werten der EU zu fördern. Dazu gehören auch der Mangel an in der Digitalisierung geschulten Arbeitskräften, Bedenken zur Internetsicherheit, zu wenige und zu geringer Zugang zu Investitionen sowie bestehende und potenzielle Lücken zwischen großen Unternehmen und KMU. Dabei sollte besondere Aufmerksamkeit darauf gelegt werden, dass alle Regionen der EU von den Vorteilen künstlicher Intelligenz und Innovationen in den neuen Technologien profitieren, und dass ausreichende Investitionen und Ressourcen bereitgestellt werden. Dies gilt besonders für Regionen, die in einigen Bereichen der Digitalisierung noch viel aufzuholen haben.

Änderungsantrag  3

 

Vorschlag für eine Verordnung

Erwägung 6

 

Vorschlag der Kommission

Geänderter Text

(6) Der Begriff „KI-System“ sollte klar definiert werden, um Rechtssicherheit zu gewährleisten und gleichzeitig genügend Flexibilität zu bieten, um künftigen technologischen Entwicklungen Rechnung zu tragen. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen der Software beruhen, insbesondere darauf, dass sie im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren, sei es physisch oder digital. KI-Systeme können so konzipiert sein, dass sie mit verschiedenen Graden der Autonomie arbeiten und eigenständig oder als Bestandteil eines Produkts verwendet werden können, unabhängig davon, ob das System physisch in das Produkt integriert ist (eingebettet) oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet). Die Bestimmung des Begriffs „KI-System“ sollte durch eine Liste spezifischer Techniken und Konzepte für seine Entwicklung ergänzt werden, die im Lichte der Marktentwicklungen und der technischen Entwicklungen auf dem neuesten Stand gehalten werden sollte, indem die Kommission delegierte Rechtsakte zur Änderung dieser Liste erlässt.

(6) Der Begriff „KI-System“ sollte klar definiert werden, um Rechtssicherheit zu gewährleisten und gleichzeitig genügend Flexibilität zu bieten, um künftigen technologischen Entwicklungen Rechnung zu tragen. Diese Definition sollte den Definitionen entsprechen, die international anerkannt sind. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen des KI-Systems beruhen, insbesondere darauf, dass es im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Prognosen erstellen, Empfehlungen geben oder Entscheidungen treffen kann, die physische oder echte Umgebungen beeinflussen. Bei der Definition von KI-Systemen sollten insbesondere Schlüsselmerkmale wie die Fähigkeit berücksichtigt werden, ein reales bzw. virtuelles Umfeld zu erfassen, davon ausgehend automatisch, Modelle zu erstellen und mittels Modellinferenz Informations‑ oder Handlungsoptionen zu ermitteln; KI-Systeme sind so konzipiert, dass sie mit verschiedenen Graden der Autonomie arbeiten und eigenständig oder als Bestandteil eines Produkts verwendet werden können, unabhängig davon, ob das System physisch in das Produkt integriert ist (eingebettet) oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet). Die Bestimmung des Begriffs „KI-System“ sollte durch eine Liste spezifischer Techniken und Konzepte für seine Entwicklung ergänzt werden, die im Lichte der Marktentwicklungen und der technischen Entwicklungen auf dem neuesten Stand gehalten werden sollte, indem die Kommission delegierte Rechtsakte zur Änderung dieser Liste erlässt. Bei der Ausarbeitung dieser delegierten Rechtsakte sollte die Kommission für Beiträge aller einschlägigen Interessenträger sorgen, darunter von technischen Sachverständigen und Entwicklern von KI-Systemen. Diese Konsultation könnte durch bestehende Gremien wie die hochrangige Expertengruppe für KI oder ein neu eingerichtetes ähnliches Beratungsgremium erfolgen, das eng in die Arbeit des Europäischen Ausschusses für künstliche Intelligenz eingebunden ist. Darüber hinaus sollte die Kommission mit wichtigen internationalen Organisationen wie der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung und anderen wichtigen Organisationen, die an der Definition von KI-Systemen arbeiten, einen Dialog führen, um eine Angleichung der Definitionen von KI zu gewährleisten, wobei das Vorrecht der EU, ihre eigene Definition und Standards durch den Erlass von Rechtsvorschriften festzulegen, gewahrt bleibt.

Änderungsantrag  4

 

Vorschlag für eine Verordnung

Erwägung 12 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(12a) Diese Verordnung sollte die Forschung und Entwicklung nicht untergraben und die Freiheit der Wissenschaft respektieren. Aus diesem Grund muss gewährleistet werden, dass diese Verordnung in keinerlei Weise Aktivitäten zur Forschung und Entwicklung von KI-Systemen beeinträchtigt. Was produktorientierte Forschungsaktivitäten von Anbietern angeht, sollte diese Verordnung so gelten, dass ein KI-System dank solcher Forschung im Markt eingeführt oder in Betrieb genommen werden kann. In jedem Fall sollten jegliche Forschungs- und Entwicklungsaktivitäten gemäß anerkannter ethischer Grundsätze für die wissenschaftliche Forschung ausgeführt werden.

Änderungsantrag  5

 

Vorschlag für eine Verordnung

Erwägung 29

 

Vorschlag der Kommission

Geänderter Text

(29) In Bezug auf Hochrisiko-KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder Systemen oder selbst um Produkte oder Systeme handelt, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates39, der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates40, der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates41, der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates42, der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates43, der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates44, der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates45 und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates46 fallen, ist es angezeigt, diese Rechtsakte zu ändern, damit die Kommission – aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Beeinträchtigung bestehender Governance-, Konformitätsbewertungs- und Durchsetzungsmechanismen sowie der darin eingerichteten Behörden – beim Erlass von etwaigen künftigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt.

(29) In Bezug auf Hochrisiko-KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder Systemen oder selbst um Produkte oder Systeme handelt, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates39, der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates40, der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates41, der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates42, der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates43, der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates44, der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates45 und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates46 fallen, ist es angezeigt, diese Rechtsakte zu ändern, damit die Kommission – aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Beeinträchtigung bestehender Steuerungs-, Konformitätsbewertungs- und Durchsetzungsmechanismen sowie der darin eingerichteten Behörden – beim Erlass von etwaigen künftigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt. Darüber hinaus sind wirksame Normungsvorschriften erforderlich, um die Anforderungen dieser Verordnung in die Praxis umzusetzen. Die EU-Organe, insbesondere die Kommission, sollten gemeinsam mit der Industrie die KI-Sektoren ermitteln, in denen die Normung am dringendsten benötigt wird, um eine Fragmentierung des Marktes zu vermeiden und die Integration des Europäischen Normungssystems (ESS) in das Internationale Normungssystem (ISO, IEC) zu erhalten und weiter zu stärken.

 

 

__________________

__________________

39 Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates vom 11. März 2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt und zur Aufhebung der Verordnung (EG) Nr. 2320/2002 (ABl. L 97 vom 9.4.2008, S. 72).

39 Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates vom 11. März 2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt und zur Aufhebung der Verordnung (EG) Nr. 2320/2002 (ABl. L 97 vom 9.4.2008, S. 72).

40 Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 1).

40 Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 1).

41 Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates vom 15. Januar 2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 52).

41 Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates vom 15. Januar 2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 52).

42 Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates vom 23. Juli 2014 über Schiffsausrüstung und zur Aufhebung der Richtlinie 96/98/EG des Rates (ABl. L 257 vom 28.8.2014, S. 146).

42 Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates vom 23. Juli 2014 über Schiffsausrüstung und zur Aufhebung der Richtlinie 96/98/EG des Rates (ABl. L 257 vom 28.8.2014, S. 146).

43 Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates vom 11. Mai 2016 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union (ABl. L 138 vom 26.5.2016, S. 44).

43 Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates vom 11. Mai 2016 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union (ABl. L 138 vom 26.5.2016, S. 44).

44 Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).

44 Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).

45 Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates vom 4. Juli 2018 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit sowie zur Änderung der Verordnungen (EG) Nr. 2111/2005, (EG) Nr. 1008/2008, (EU) Nr. 996/2010, (EU) Nr. 376/2014 und der Richtlinien 2014/30/EU und 2014/53/EU des Europäischen Parlaments und des Rates, und zur Aufhebung der Verordnungen (EG) Nr. 552/2004 und (EG) Nr. 216/2008 des Europäischen Parlaments und des Rates und der Verordnung (EWG) Nr. 3922/91 des Rates (ABl. L 212 vom 22.8.2018, S. 1).

45 Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates vom 4. Juli 2018 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit sowie zur Änderung der Verordnungen (EG) Nr. 2111/2005, (EG) Nr. 1008/2008, (EU) Nr. 996/2010, (EU) Nr. 376/2014 und der Richtlinien 2014/30/EU und 2014/53/EU des Europäischen Parlaments und des Rates, und zur Aufhebung der Verordnungen (EG) Nr. 552/2004 und (EG) Nr. 216/2008 des Europäischen Parlaments und des Rates und der Verordnung (EWG) Nr. 3922/91 des Rates (ABl. L 212 vom 22.8.2018, S. 1).

46 Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates vom 27. November 2019 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge im Hinblick auf ihre allgemeine Sicherheit und den Schutz der Fahrzeuginsassen und von ungeschützten Verkehrsteilnehmern, zur Änderung der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates und zur Aufhebung der Verordnungen (EG) Nr. 78/2009, (EG) Nr. 79/2009 und (EG) Nr. 661/2009 des Europäischen Parlaments und des Rates sowie der Verordnungen (EG) Nr. 631/2009, (EU) Nr. 406/2010, (EU) Nr. 672/2010, (EU) Nr. 1003/2010, (EU) Nr. 1005/2010, (EU) Nr. 1008/2010, (EU) Nr. 1009/2010, (EU) Nr. 19/2011, (EU) Nr. 109/2011, (EU) Nr. 458/2011, (EU) Nr. 65/2012, (EU) Nr. 130/2012, (EU) Nr. 347/2012, (EU) Nr. 351/2012, (EU) Nr. 1230/2012 und (EU) 2015/166 der Kommission (ABl. L 325 vom 16.12.2019, S. 1).

46 Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates vom 27. November 2019 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge im Hinblick auf ihre allgemeine Sicherheit und den Schutz der Fahrzeuginsassen und von ungeschützten Verkehrsteilnehmern, zur Änderung der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates und zur Aufhebung der Verordnungen (EG) Nr. 78/2009, (EG) Nr. 79/2009 und (EG) Nr. 661/2009 des Europäischen Parlaments und des Rates sowie der Verordnungen (EG) Nr. 631/2009, (EU) Nr. 406/2010, (EU) Nr. 672/2010, (EU) Nr. 1003/2010, (EU) Nr. 1005/2010, (EU) Nr. 1008/2010, (EU) Nr. 1009/2010, (EU) Nr. 19/2011, (EU) Nr. 109/2011, (EU) Nr. 458/2011, (EU) Nr. 65/2012, (EU) Nr. 130/2012, (EU) Nr. 347/2012, (EU) Nr. 351/2012, (EU) Nr. 1230/2012 und (EU) 2015/166 der Kommission (ABl. L 325 vom 16.12.2019, S. 1).

Änderungsantrag  6

 

Vorschlag für eine Verordnung

Erwägung 44

 

Vorschlag der Kommission

Geänderter Text

(44) Eine hohe Datenqualität ist für die Leistung vieler KI-Systeme von wesentlicher Bedeutung, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten-Governance- und Datenverwaltungsverfahren umgesetzt werden. Die Trainings-, Validierungs- und Testdatensätze sollten im Hinblick auf die Zweckbestimmung des Systems hinreichend relevant, repräsentativ, fehlerfrei und vollständig sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu beobachten, zu erkennen und zu korrigieren.

(44) Eine hohe Datenqualität ist für die Leistung vieler KI-Systeme von wesentlicher Bedeutung, insbesondere, wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Datenqualitätsmanagement- und Datenverwaltungsverfahren umgesetzt werden. Bei der Entwicklung der Trainings-, Validierungs- und Testdatensätze werden die größtmöglichen Anstrengungen unternommen, um sicherzustellen, dass sie im Hinblick auf die Zweckbestimmung des Systems relevant, repräsentativ, fehlerfrei und ausreichend auf Fehler untersucht sind. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll, mit besonderem Augenmerk auf die Minderung möglicher Verzerrungen in den Datensätzen, die zu Risiken für die Grundrechte oder zu diskriminierenden Ergebnissen für die von dem Hochrisiko-KI-System betroffenen Personen führen könnten. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen, kontextuellen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind, wobei Frauen, gefährdete Gruppen und Kinder besonders berücksichtigt werden sollten. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu beobachten, zu erkennen und zu korrigieren.

Änderungsantrag  7

 

Vorschlag für eine Verordnung

Erwägung 46

 

Vorschlag der Kommission

Geänderter Text

(46) Informationen darüber, wie Hochrisiko-KI-Systeme entwickelt wurden und wie sie während ihres gesamten Lebenszyklus funktionieren, sind unerlässlich, um die Einhaltung der Anforderungen dieser Verordnung überprüfen zu können. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten, Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen. Die technische Dokumentation sollte stets auf dem neuesten Stand gehalten werden.

(46) Verständliche Informationen darüber, wie Hochrisiko-KI-Systeme entwickelt wurden und wie sie während ihres gesamten Lebenszyklus funktionieren, sind unerlässlich, um die Einhaltung der Anforderungen dieser Verordnung überprüfen zu können und es den Nutzern zu ermöglichen, fundierte und autonome Entscheidungen über ihre Verwendung zu treffen. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten, Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen. Die technische Dokumentation sollte stets auf dem neuesten Stand gehalten werden.

Änderungsantrag  8

 

Vorschlag für eine Verordnung

Erwägung 49

 

Vorschlag der Kommission

Geänderter Text

(49) Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit entsprechend dem allgemein anerkannten Stand der Technik aufweisen. Der Genauigkeitsgrad und die Genauigkeitskennzahlen sollte den Nutzern mitgeteilt werden.

(49) Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit entsprechend dem anerkannten Stand der Technik aufweisen. Die Genauigkeitskennzahlen und der erwartete Genauigkeitsgrad sollten mit dem vorrangigen Ziel definiert werden, die Risiken und negativen Auswirkungen des KI-Systems auf den Einzelnen und die Gesellschaft zu mindern. Der erwartete Genauigkeitsgrad und die Genauigkeitskennzahlen sollte den Nutzern auf klare, leicht nachvollziehbare und verständliche Weisemitgeteilt werden. Die Angabe von Genauigkeitskennzahlen gibt jedoch keinen Aufschluss auf den zukünftigen Genauigkeitsgrad, sodass entsprechende Methoden angewandt werden müssen, um einen nachhaltigen Genauigkeitsgrad während der Nutzung zu gewährleisten. Es sind zwar Normungsgremien vorhanden, um den Standard vorzugeben, allerdings ist eine Abstimmung beim Leistungsvergleich vonnöten, um festzulegen, wie diese Standardvorgaben erfüllt und gemessen werden. Der Europäische Ausschuss für künstliche Intelligenz sollte nationale Metrologie- und Benchmarking-Behörden zusammenbringen und Leitlinien herausgeben, um die technischen Aspekte der Messung der angemessenen Genauigkeits- und Robustheitsgrade anzugehen..

Änderungsantrag  9

 

Vorschlag für eine Verordnung

Erwägung 50

 

Vorschlag der Kommission

Geänderter Text

(50) Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandfähig gegenüber Risiken im Zusammenhang mit den Grenzen des Systems (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen) sowie gegenüber böswilligen Eingriffen sein, die die Sicherheit des KI-Systems gefährden und zu schädlichen oder anderweitig unerwünschtem Verhalten führen können. Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ergebnisse hervorbringt.

(50) Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandfähig gegenüber Risiken im Zusammenhang mit den Grenzen des Systems (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen) sowie gegenüber böswilligen Eingriffen sein, die die Sicherheit des KI-Systems gefährden und zu schädlichen oder anderweitig unerwünschtem Verhalten führen können. Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ergebnisse hervorbringt. Die Nutzer des KI-Systems sollten Maßnahmen ergreifen, um sicherzustellen, dass der mögliche Kompromiss zwischen Robustheit und Genauigkeit nicht zu diskriminierenden oder negativen Ergebnissen für Untergruppen, die Minderheiten angehören, führt.

Änderungsantrag  10

 

Vorschlag für eine Verordnung

Erwägung 51

 

Vorschlag der Kommission

Geänderter Text

(51) Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung oder Sicherheitsmerkmale zu verändern. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen daher geeignete Maßnahmen ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist.

(51) Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung oder Sicherheitsmerkmale zu verändern. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe oder Angriffe auf vertrauliche Daten) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen sowie die notifizierten Stellen, die zuständigen nationalen Behörden und die Marktüberwachungsbehörden daher geeignete Maßnahmen ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist. Bei Hochrisiko-KI sollten Sicherheitslösungen und Patches für die gesamte Lebensdauer des Produkts oder, falls keine Abhängigkeit von einem bestimmten Produkt besteht, für einen vom Hersteller anzugebenden Zeitraum bereitgestellt werden.

Änderungsantrag  11

 

Vorschlag für eine Verordnung

Erwägung 61

 

Vorschlag der Kommission

Geänderter Text

(61) Die Normung sollte eine Schlüsselrolle dabei spielen, den Anbietern technische Lösungen zur Verfügung zu stellen, um die Einhaltung dieser Verordnung zu gewährleisten. Die Einhaltung harmonisierter Normen gemäß der Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates54 sollte den Anbietern den Nachweis der Konformität mit den Anforderungen dieser Verordnung ermöglichen. Die Kommission könnte jedoch gemeinsame technische Spezifikationen in Bereichen annehmen, in denen es keine harmonisierten Normen gibt oder diese unzureichend sind.

(61) Die Normung sollte eine Schlüsselrolle dabei spielen, den Anbietern technische Lösungen zur Verfügung zu stellen, um die Einhaltung dieser Verordnung zu gewährleisten. Die Einhaltung harmonisierter Normen gemäß der Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates54 sollte den Anbietern den Nachweis der Konformität mit den Anforderungen dieser Verordnung ermöglichen. Neben technischen Einzelheiten sollte der Normungsprozess auch Risiken für die Grundrechte, die Umwelt und die Gesellschaft insgesamt sowie andere demokratische und soziotechnische Aspekte des KI-Systems berücksichtigen und sicherstellen, dass die einschlägigen Fachexperten in den Normungsprozess einbezogen und konsultiert werden. Der Normungsprozess sollte in Bezug auf die an den Normungstätigkeiten beteiligten juristischen und natürlichen Personen transparent sein. Die Kommission könnte jedoch gemeinsame technische Spezifikationen in Bereichen annehmen, in denen es keine harmonisierten Normen gibt oder diese unzureichend sind. Bei der Entwicklung dieser gemeinsamen Spezifikationen sollte die Kommission die Ansichten der relevanten Interessengruppen einbeziehen, insbesondere wenn die gemeinsamen Spezifikationen spezifische Grundrechtsbelange betreffen. Insbesondere sollte die Kommission gemeinsame Spezifikationen verabschieden, die darlegen, wie Risikomanagement-Systeme die Auswirkungen auf Kinder besonders berücksichtigen.

__________________

__________________

54 Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates vom 25. Oktober 2012 zur europäischen Normung, zur Änderung der Richtlinien 89/686/EWG und 93/15/EWG des Rates sowie der Richtlinien 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG und 2009/105/EG des Europäischen Parlaments und des Rates und zur Aufhebung des Beschlusses 87/95/EWG des Rates und des Beschlusses Nr. 1673/2006/EG des Europäischen Parlaments und des Rates (ABl. L 316 vom 14.11.2012, S. 12).

54 Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates vom 25. Oktober 2012 zur europäischen Normung, zur Änderung der Richtlinien 89/686/EWG und 93/15/EWG des Rates sowie der Richtlinien 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG und 2009/105/EG des Europäischen Parlaments und des Rates und zur Aufhebung des Beschlusses 87/95/EWG des Rates und des Beschlusses Nr. 1673/2006/EG des Europäischen Parlaments und des Rates (ABl. L 316 vom 14.11.2012, S. 12).

Änderungsantrag  12

 

Vorschlag für eine Verordnung

Erwägung 71

 

Vorschlag der Kommission

Geänderter Text

(71) Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die neuartige Formen der Regulierungsaufsicht und einen sicheren Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen innovationsfreundlichen, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die zuständigen nationalen Behörden eines oder mehrerer Mitgliedstaaten angehalten werden, Reallabore für künstliche Intelligenz einzurichten, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern.

(71) Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die neuartige Formen der Regulierungsaufsicht und einen sicheren Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter und ethisch begründeter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen innovationsfreundlichen, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die zuständigen nationalen Behörden eines oder mehrerer Mitgliedstaaten angehalten werden, Reallabore für künstliche Intelligenz einzurichten und diese in der gesamten EU zur Verfügung zu stellen, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern. Alle erheblichen Risiken, die bei der Entwicklung und Erprobung von KI-Systemen festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses bis eine solche Risikominderung erfolgt ist.

Änderungsantrag  13

 

Vorschlag für eine Verordnung

Erwägung 72

 

Vorschlag der Kommission

Geänderter Text

(72) Die Ziele der Reallabore sollten darin bestehen, Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Erprobungsumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderen einschlägigen Rechtsvorschriften der Union und der Mitgliedstaaten in Einklang stehen. Darüber hinaus sollen sie die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und der Auswirkungen der KI-Nutzung verbessern und den Marktzugang beschleunigen, unter anderem indem Hindernisse für kleine und mittlere Unternehmen (KMU) und Start-up-Unternehmen abgebaut werden. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die am Reallabor Beteiligten sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der am Reallabor Beteiligten sollte berücksichtigt werden, wenn die zuständigen Behörden entscheiden, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.

(72) Die Ziele der Reallabore sollten darin bestehen, Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Erprobungsumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderen einschlägigen Rechtsvorschriften der EU und der Mitgliedstaaten sowie mit der Charta der Grundrechte der Union und der Datenschutzgrundverordnung in Einklang stehen. Darüber hinaus sollten sie die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und der Auswirkungen der KI-Nutzung verbessern, die notwendigen Garantien für den Aufbau von Vertrauen in die Zuverlässigkeit von KI-Systemen zu schaffen und den Marktzugang beschleunigen, unter anderem indem Hindernisse für kleine und mittlere Unternehmen (KMU) und Jungunternehmen abgebaut werden. Sie sollten einen Beitrag zur Verwirklichung der im Politikprogramm „Weg in die digitale Dekade“ festgelegten KI-Ziele leisten. Des Weiteren sollten sie einen Beitrag zur Entwicklung ethischer, sozial verantwortlicher und ökologisch nachhaltiger KI-Systeme leisten. Sie sollten zudem eine wirksame Beteiligung von KMU und Jungunternehmen an Reallaboren ermöglichen, wobei die Befolgungskosten auf einem vertretbaren Niveau gehalten werden sollten, um die Entwicklung vertrauenswürdiger europäischer Lösungen für künstliche Intelligenz sicherzustellen. Es sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt und gleichzeitig Innovationen befördert werden. Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die am Reallabor Beteiligten sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der am Reallabor Beteiligten sollte berücksichtigt werden, wenn die zuständigen Behörden entscheiden, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.

Änderungsantrag  14

 

Vorschlag für eine Verordnung

Erwägung 72 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(72a) Es ist wünschenswert, dass die Schaffung von Bereichen für die Erprobung von Rechtsvorschriften, die derzeit dem Willen der Mitgliedstaaten überlassen ist, zu einer Verpflichtung mit genau festgelegten Kriterien wird, um sowohl die Wirksamkeit des KI-Systems als auch einen leichteren Zugang für Unternehmen, insbesondere KMU, zu gewährleisten. Unternehmen und Forschungseinrichtungen sollten an der Ausarbeitung der Bedingungen für die Schaffung von Experimentierfeldern für die Regulierung beteiligt werden.

Änderungsantrag  15

 

Vorschlag für eine Verordnung

Erwägung 73

 

Vorschlag der Kommission

Geänderter Text

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Initiativen zum Thema KI-Kompetenz sowie Sensibilisierungs- und Informationsmaßnahmen. Die Mitgliedstaaten sollten entsprechende bestehende Kanäle nutzen und gegebenenfalls neue Kanäle für die Kommunikation mit KMU, Jungunternehmen und anderen Innovatoren einrichten, um Orientierungshilfe zu bieten und Fragen zur Durchführung dieser Verordnung zu beantworten. Zu solchen bestehenden Kanälen könnten unter anderem die folgenden gehören: das Netzwerk von Computer-Notfallteams der Agentur der Europäischen Union für Cybersicherheit (ENISA), nationale Datenschutzbehörden, die KI-On-Demand-Plattform, die Europäischen Digitalen Innovationszentren sowie andere durch EU-Programme finanzierte relevante Instrumente und die Versuchs- und Prüfeinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene gegründet wurden. Diese Kanäle sollten gegebenenfalls zusammenarbeiten, um Synergien zu schaffen und eine Homogenität ihrer Leitlinien für Jungunternehmen, KMU und Nutzer sicherzustellen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Die Kommission sollte regelmäßig die Zertifizierungs- und Befolgungskosten für KMU und Jungunternehmen, unter anderem durch transparente Konsultationen mit KMU, Jungunternehmen und Nutzern, bewerten und mit den Mitgliedstaaten zusammenarbeiten, um diese Kosten zu senken. So können zum Beispiel Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird. Mittlere Unternehmen, die kürzlich die Kategorie von der kleinen auf die mittlere Größe im Sinne der Empfehlung 2003/361/EG gewechselt haben, sollten während eines von den Mitgliedstaaten als angemessen erachteten Zeitraums Zugang zu diesen Initiativen und Leitlinien haben, da diesen neuen mittleren Unternehmen mitunter die erforderlichen rechtlichen Mittel und Schulungsmöglichkeiten fehlen, um für ein angemessenes Verständnis und eine ordnungsgemäße Einhaltung der Bestimmungen zu sorgen.

Änderungsantrag  16

 

Vorschlag für eine Verordnung

Erwägung 76 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(76a) Als Untergruppe des Ausschusses sollte ein Beirat für künstliche Intelligenz (im Folgenden der „Beirat“) eingerichtet werden, der sich aus einschlägigen Vertretern der Industrie, der Forschung, der Wissenschaft, der Zivilgesellschaft, der Normungsgremien, der Sozialpartner, der KMU sowie aus Sachverständigen für Grundrechte und sonstigen relevanten Interessengruppen aus sämtlichen Mitgliedstaaten zusammensetzt, um ein geografisches Gleichgewicht zu wahren. Der Beirat sollte die Arbeit des Ausschusses unterstützen, indem er Beratung im Zusammenhang mit den Aufgaben des Ausschusses erteilt. Der Beirat sollte einen Vertreter ernennen, der an den Sitzungen des Ausschusses teilnimmt und sich an dessen Arbeit beteiligt.

Änderungsantrag  17

 

Vorschlag für eine Verordnung

Erwägung 81

 

Vorschlag der Kommission

Geänderter Text

(81) Die Entwicklung anderer KI-Systeme als Hochrisiko-KI-Systeme im Einklang mit den Anforderungen dieser Verordnung kann zu einer stärkeren Verbreitung vertrauenswürdiger künstlicher Intelligenz in der Union führen. Anbieter von KI-Systemen, die kein hohes Risiko bergen, sollten angehalten werden, Verhaltenskodizes zu erstellen, um eine freiwillige Anwendung der für Hochrisiko-KI-Systeme verbindlichen Anforderungen zu fördern. Darüber hinaus sollten die Anbieter auch ermutigt werden, freiwillig zusätzliche Anforderungen anzuwenden, z. B. in Bezug auf die ökologische Nachhaltigkeit, die barrierefreie Zugänglichkeit für Menschen mit Behinderungen, die Beteiligung der Interessenträger an der Konzeption und Entwicklung von KI-Systemen und die Vielfalt der Entwicklungsteams. Die Kommission kann Initiativen, auch sektoraler Art, ergreifen, um den Abbau technischer Hindernisse zu erleichtern, die den grenzüberschreitenden Datenaustausch im Zusammenhang mit der KI-Entwicklung behindern, unter anderem in Bezug auf die Infrastruktur für den Datenzugang und die semantische und technische Interoperabilität verschiedener Arten von Daten.

(81) Die Entwicklung anderer KI-Systeme als Hochrisiko-KI-Systeme im Einklang mit den Anforderungen dieser Verordnung kann zu einer stärkeren Verbreitung vertrauenswürdiger, sozial verantwortlicher und ökologisch nachhaltiger künstlicher Intelligenz in der EU führen. Anbieter von KI-Systemen, die kein hohes Risiko bergen, sollten angehalten werden, Verhaltenskodizes zu erstellen, um eine freiwillige Anwendung der für Hochrisiko-KI-Systeme verbindlichen Anforderungen zu fördern. Darüber hinaus sollten die Anbieter auch ermutigt werden, freiwillig zusätzliche Anforderungen anzuwenden, z. B. in Bezug auf die ökologische Nachhaltigkeit, die barrierefreie Zugänglichkeit für Menschen mit Behinderungen, die Beteiligung der Interessenträger an der Konzeption und Entwicklung von KI-Systemen und die Vielfalt der Entwicklungsteams. Die Kommission kann Initiativen, auch sektoraler Art, ergreifen, um den Abbau technischer Hindernisse zu erleichtern, die den grenzüberschreitenden Datenaustausch im Zusammenhang mit der KI-Entwicklung behindern, unter anderem in Bezug auf die Infrastruktur für den Datenzugang und die semantische und technische Interoperabilität verschiedener Arten von Daten.

Änderungsantrag  18

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Diese Verordnung beeinträchtigt keine Forschungsaktivitäten bezüglich KI-Systemen, da diese nicht dazu führen oder bedeuten, dass ein KI-System im Markt eingeführt oder in Betrieb genommen wird. Diese Forschungsaktivitäten dürfen nicht die Grundrechte der betroffenen Personen verletzen.

Änderungsantrag  19

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5b) Diese Verordnung gilt nicht für KI-Systeme und deren Ergebnisse, die eigens für den alleinigen Zweck der wissenschaftlichen Forschung im allgemeinen Interesse der EU entwickelt und in Betrieb genommen werden.

Änderungsantrag  20

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 1

 

Vorschlag der Kommission

Geänderter Text

1. „System der künstlichen Intelligenz“ (KI-System) eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren;

1. „System der künstlichen Intelligenz“(KI-System) bezeichnet ein computerbasiertes System, das mit unterschiedlichen Autonomiegraden für einen bestimmten Satz vom Menschen festgelegter Ziele Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen hervorbringen kann, die das echte oder virtuelle Umfeld beeinflussen;

Änderungsantrag  21

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1a. „Autonomie“, dass ein KI-System durch Interpretation bestimmter Eingaben und durch Verwendung einer Reihe vorab festgelegter Ziele funktioniert, ohne durch solche Anweisungen beschränkt zu sein, wenngleich das Verhalten des Systems durch das ihm vorgegebene Ziel und andere relevante Vorgaben seines Entwicklers eingeschränkt wird bzw. auf die Erfüllung des Ziels ausgerichtet ist;

Änderungsantrag  22

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 2

 

Vorschlag der Kommission

Geänderter Text

1. „Anbieter“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System entwickelt oder entwickeln lässt, um es unter ihrem eigenen Namen oder ihrer eigenen Marke – entgeltlich oder unentgeltlich – in Verkehr zu bringen oder in Betrieb zu nehmen;

2. „Anbieter“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System entwickelt oder entwickeln lässt und dieses System unter dem eigenen Namen oder der eigenen Marke in Verkehr bringt oder in Betrieb nimmt; sei es entgeltlich oder unentgeltlich;

Änderungsantrag  23

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 14

 

Vorschlag der Kommission

Geänderter Text

14. „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Sachen gefährdet;

14. „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt und dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Sachen gefährdet;

Änderungsantrag  24

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

44. „schwerwiegender Vorfall“ ein Vorkommnis, das direkt oder indirekt eine der nachstehenden Folgen hat, hätte haben können oder haben könnte:

44. „schwerwiegender Vorfall“ ein Vorkommnis oder eine Fehlfunktion eines KI-Systems, das bzw. die direkt oder indirekt eine der nachstehenden Folgen hat, hätte haben können oder haben könnte:

Änderungsantrag  25

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) den Tod oder die schwere gesundheitliche Schädigung einer Person, schwere Sach- oder Umweltschäden,

a) den Tod oder die schwere gesundheitliche Schädigung einer Person, die schwere Beeinträchtigung der Grundrechte oder der Sicherheit einer Person, schwere Sach- oder Umweltschäden,

Änderungsantrag  26

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) Verstoß gegen die Verpflichtungen aus den Bestimmungen des Unionsrechts zum Schutz der Grundrechte;

Änderungsantrag  27

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44a. „Reallabor“ eine von den zuständigen Behörden eines Mitgliedstaats oder mehrerer Mitgliedstaaten in Zusammenarbeit mit der Kommission oder vom Europäischen Datenschutzbeauftragten geschaffene Einrichtung, die ein angemessenes kontrolliertes und flexibles Umfeld bietet, das die sichere Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum vor deren Inverkehrbringen oder Inbetriebnahme nach einem bestimmten Plan erleichtert;

Änderungsantrag  28

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44b. „KI-Kompetenz“ die Fähigkeiten, Kenntnisse und das Verständnis in Bezug auf KI-Systeme, die für die Einhaltung und Durchsetzung dieser Verordnung erforderlich sind;

Änderungsantrag  29

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44c. „Deep Fake“ bezeichnet manipuliertes oder synthetisches Audio- und/oder visuelles Material, das einen authentischen Eindruck erweckt, in dem Ereignisse stattzufinden scheinen, die nie stattgefunden haben, und das mit Hilfe von Techniken aus dem Bereich der künstlichen Intelligenz, einschließlich des maschinellen Lernens und des Deep Learning, erzeugt wurde, ohne dass der Nutzer oder Endnutzer weiß, dass das Audio- und/oder visuelle Material mit Hilfe künstlicher Intelligenz erzeugt wurde;

Änderungsantrag  30

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44d. „kritische Infrastruktur“ einen Vermögenswert, ein System oder einen Teil davon, der bzw. das zur Bereitstellung einer Dienstleistung erforderlich ist, die zur Aufrechterhaltung der grundlegenden gesellschaftlichen Funktionen oder wirtschaftlichen Aktivitäten im Sinne von Artikel 2 Absätze 4 und 5 der Richtlinie ____ über die Resilienz kritischer Einrichtungen (2020/0365(COD)) von wesentlicher Bedeutung ist;

Änderungsantrag  31

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44e. „personenbezogene Daten“ personenbezogene Daten im Sinne des Artikels 4 Nummer 1 der Verordnung (EU) 2016/679;

Änderungsantrag  32

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 f (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44f. „nicht personenbezogene Daten“ Daten, bei denen es sich nicht um personenbezogene Daten im Sinne des Artikels 4 Nummer 1 der Verordnung (EU) 2016/679 handelt.

Änderungsantrag  33

 

Vorschlag für eine Verordnung

Artikel 4 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung der Liste der Techniken und Konzepte in Anhang I zu erlassen, um diese Liste auf der Grundlage von Merkmalen, die den dort aufgeführten Techniken und Konzepten ähnlich sind, an Marktentwicklungen und technische Entwicklungen anzupassen.

Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung der Liste der Techniken und Konzepte in Anhang I, die unter die Bestimmung des Begriffs „KI-System“ gemäß Artikel 3 Nummer 1 fallen, zu erlassen, um diese Liste auf der Grundlage von Merkmalen, die den dort aufgeführten Techniken und Konzepten ähnlich sind, an Marktentwicklungen und technische Entwicklungen anzupassen.

Änderungsantrag  34

 

Vorschlag für eine Verordnung

Artikel 4 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Bei der Ausarbeitung dieser delegierten Rechtsakte sorgt die Kommission für Beiträge aller einschlägigen Interessenträger, etwa von technischen Sachverständigen und Entwicklern von KI-Systemen.

Änderungsantrag  35

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen.

(1) Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, müssen mit Trainings-, Bewertungs-, Validierungs- und Testdatensätzen entwickelt werden, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen, soweit dies aus technischer Hinsicht machbar ist, wobei dem neuestens Stand der Technik und dem jeweiligen Marktsegment oder Anwendungsbereich entsprechende Maßnahmen zu berücksichtigen sind.

Änderungsantrag  36

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Techniken wie das unüberwachte Lernen und das Lernen durch Verstärkung, bei denen keine Validierungs- und Testdatensätze verwendet werden, werden auf der Grundlage von Trainingsdatensätzen entwickelt, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen.

Änderungsantrag  37

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1b) Anbieter von Hochrisiko-KI-Systemen, die von Dritten gesammelte und/oder verwaltete Daten nutzen, können sich auf Zusicherungen dieser Dritten in Bezug auf die in Absatz 2 Buchstaben a, b und c genannten Qualitätskriterien stützen.

Änderungsantrag  38

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Für Trainings-, Validierungs- und Testdatensätze gelten geeignete Daten-Governance- und Datenverwaltungsverfahren. Diese Verfahren betreffen insbesondere

(2) Für Trainings-, Bewertungs-, Validierungs- und Testdatensätze gelten während des gesamten Lebenszyklus der Datenverarbeitung geeignete Daten-Governance- und Datenverwaltungsverfahren. Diese Verfahren betreffen insbesondere die folgenden Elemente:

Änderungsantrag  39

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) die Transparenz in Bezug auf den ursprünglichen Zweck der Datenerfassung;

Änderungsantrag  40

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) die Datenerfassung,

b) die Datenerfassungsprozesse,

Änderungsantrag  41

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias);

f) eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias), die die Gesundheit und Sicherheit von Personen beeinträchtigen, sich negativ auf die Grundrechte auswirken oder zu einer nach dem Unionsrecht verbotenen Diskriminierung führen können, einschließlich der Fälle, in denen die Ergebnisse als Eingabedaten für künftige Vorgänge verwendet werden („Rückkopplungsschleifen“);

Änderungsantrag  42

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) die Ermittlung möglicher Datenlücken oder Mängel und wie diese Lücken und Mängel behoben werden können.

g) die Ermittlung möglicher Datenlücken oder Mängel und wie diese Lücken und Mängel behoben werden können;

Änderungsantrag  43

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe g a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ga) den Zweck und die Umgebung, in der das System verwendet werden soll.

Änderungsantrag  44

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Diese Merkmale der Datensätze können durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.

(3) Bei der Entwicklung der Trainings-, Validierungs- und Testdatensätze werden die größtmöglichen Anstrengungen unternommen, um sicherzustellen, dass sie im Hinblick auf die Zweckbestimmung des KI-Systems relevant, repräsentativ und ausreichend auf Fehler untersucht sind. Insbesondere haben sie die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Diese Merkmale der Datensätze können durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.

Änderungsantrag  45

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Trainings-, Validierungs- und Testdatensätze müssen, soweit dies für die Zweckbestimmung erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.

(4) Die Trainings-, Validierungs- und Testdatensätze müssen, soweit dies für die Zweckbestimmung erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen, kontextuellen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.

Änderungsantrag  46

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie im Hinblick auf ihre Zweckbestimmung ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.

(1) Hochrisiko-KI-Systeme werden nach dem Grundsatz der Sicherheit durch Technikgestaltung und durch Voreinstellungen konzipiert und entwickelt. Im Hinblick auf ihre Zweckbestimmung sollten sie ein angemessenes Maß an Genauigkeit, Robustheit, Sicherheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren. Die Erfüllung dieser Anforderungen muss mit der Umsetzung von Maßnahmen verbunden sein, die dem Stand der Technik und dem jeweiligen Marktsegment oder Anwendungsbereich entsprechen.

Änderungsantrag  47

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Um den technischen Aspekten der Bestimmung des angemessenen Grads an Genauigkeit und Robustheit gemäß Absatz 1 dieses Artikels Rechnung zu tragen, bringt der Europäische Ausschuss für künstliche Intelligenz nationale Metrologie- und Benchmarking-Behörden zusammen und stellt unverbindliche Leitlinien zu dem Gegenstand von Artikel 56 Absatz 2 Buchstabe a bereit.

Änderungsantrag  48

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1b) Um aufkommende Probleme im Zusammenhang mit der Cybersicherheit im gesamten Binnenmarkt anzugehen, wird neben dem Europäischen Ausschuss für künstliche Intelligenz gemäß Artikel 56 Absatz 2 Buchstabe b auch die Agentur der Europäischen Union für Cybersicherheit (ENISA) einbezogen.

Änderungsantrag  49

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Genauigkeitsgrade und die relevanten Genauigkeitskennzahlen von Hochrisiko-KI-Systemen werden in der ihnen beigefügten Gebrauchsanweisung angegeben.

(2) Die Genauigkeitsgrade und die relevanten Genauigkeitskennzahlen von Hochrisiko-KI-Systemen werden in der ihnen beigefügten Gebrauchsanweisung angegeben. Die verwendete Sprache muss eindeutig sein und darf keine Missverständnisse oder irreführenden Aussagen enthalten.

Änderungsantrag  50

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 3 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Hochrisiko-KI-Systeme müssen widerstandsfähig gegenüber Fehlern, Störungen oder Unstimmigkeiten sein, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen auftreten können.

Es müssen technische und organisatorische Maßnahmen ergriffen werden, um sicherzustellen, dass Hochrisiko-KI-Systeme so widerstandsfähig wie möglich gegenüber Fehlern, Störungen oder Unstimmigkeiten sind, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen auftreten können.

Änderungsantrag  51

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 3 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Die Robustheit von Hochrisiko-KI-Systemen kann durch technische Redundanz erreicht werden, was auch Sicherungs- oder Störungssicherheitspläne umfassen kann.

Die Robustheit von Hochrisiko-KI-Systemen kann von dem jeweiligen Anbieter, erforderlichenfalls unter Mitwirkung des Nutzers, durch technische Redundanz erreicht werden, was auch Sicherungs- oder Störungssicherheitspläne umfassen kann.

Änderungsantrag  52

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 3 – Unterabsatz 3

 

Vorschlag der Kommission

Geänderter Text

Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass auf möglicherweise verzerrte Ergebnisse, die durch eine Verwendung vorheriger Ergebnisse als Eingabedaten für den künftigen Betrieb entstehen („Rückkopplungsschleifen“), angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.

Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass auf möglicherweise verzerrte Ergebnisse, die die Eingabedaten für den künftigen Betrieb beeinflussen („Rückkopplungsschleifen“), und böswillige Manipulation von Eingaben, die beim Lernen während des Betriebs verwendet werden, angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.

Änderungsantrag  53

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 4 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Hochrisiko-KI-Systeme müssen widerstandfähig gegen Versuche unbefugter Dritter sein, ihre Verwendung oder Leistung durch Ausnutzung von Systemschwachstellen zu verändern.

Hochrisiko-KI-Systeme müssen widerstandsfähig gegen Versuche unbefugter Dritter sein, ihre Verwendung, ihr Verhalten, ihre Ergebnisse oder ihre Leistung durch Ausnutzung von Systemschwachstellen zu verändern.

Änderungsantrag  54

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 4 – Unterabsatz 3

 

Vorschlag der Kommission

Geänderter Text

Die technischen Lösungen für den Umgang mit KI-spezifischen Schwachstellen umfassen gegebenenfalls Maßnahmen zur Verhütung und Kontrolle von Angriffen, mit denen versucht wird, den Trainingsdatensatz zu manipulieren („Datenvergiftung“), von Eingabedaten, die das Modell zu Fehlern verleiten sollen („feindliche Beispiele“), oder von Modellmängeln.

Die technischen Lösungen für den Umgang mit KI-spezifischen Schwachstellen umfassen gegebenenfalls Maßnahmen, um Angriffe, mit denen versucht wird, eine Manipulation des Trainingsdatensatzes („Datenvergiftung“) oder vortrainierter Komponenten, die beim Training verwendet werden („Modellvergiftung“), vorzunehmen, Eingabedaten, die das Modell zu Fehlern verleiten sollen („feindliche Beispiele“ oder „Modellvermeidung“), Angriffe auf vertrauliche Daten oder Modellmängel, die zu einer schädlichen Entscheidungsfindung führen könnten, zu verhüten, zu erkennen, darauf zu reagieren, sie zu beseitigen und zu kontrollieren.

Änderungsantrag  55

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die Kommission stellt sicher, dass bei der Entwicklung harmonisierter Normen die Risiken in Bezug auf die Grundrechte, die Umwelt und die Gesellschaft insgesamt berücksichtigt werden.

Änderungsantrag  56

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die Kommission stellt sicher, dass der Prozess der Entwicklung harmonisierter Normen für KI-Systeme Interessenträgern, einschließlich KMU, gemäß den Artikeln 5 und 6 der Verordnung (EU) Nr. 1025/2012 offensteht.

Änderungsantrag  57

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Zu diesem Zweck stellt die Kommission gemäß Artikel 17 der Verordnung (EU) Nr. 1025/2012 Mittel bereit, um deren wirksame Beteiligung zu erleichtern.

Änderungsantrag  58

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Die Kommission überprüft die harmonisierten Normen vor ihrer Veröffentlichung im Amtsblatt und erstellt einen Bericht über deren Übereinstimmung mit den Absätzen 1a und 1b dieses Artikels.

Änderungsantrag  59

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Gibt es keine harmonisierten Normen gemäß Artikel 40 oder ist die Kommission der Auffassung, dass die einschlägigen harmonisierten Normen unzureichend sind oder dass bestimmte Bedenken hinsichtlich der Sicherheit oder der Grundrechte ausgeräumt werden müssen, so kann die Kommission im Wege von Durchführungsrechtsakten gemeinsame Spezifikationen für die Anforderungen in Kapitel 2 dieses Titels festlegen. Diese Durchführungsrechtsakte werden gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.

(1) Gibt es keine harmonisierten Normen gemäß Artikel 40 oder ist die Kommission der Auffassung, dass die einschlägigen harmonisierten Normen unzureichend sind oder dass bestimmte und dringende Bedenken hinsichtlich der Sicherheit oder der Grundrechte, die durch die Entwicklung harmonisierter Normen nicht zufriedenstellend überwunden werden können, ausgeräumt werden müssen, so kann die Kommission im Wege von Durchführungsrechtsakten gemeinsame Spezifikationen für die Anforderungen in Kapitel 2 dieses Titels festlegen. Diese Durchführungsrechtsakte werden gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.

Änderungsantrag  60

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Ausarbeitung der in Absatz 1 genannten gemeinsamen Spezifikationen holt die Kommission die Stellungnahmen der einschlägigen Stellen oder Expertengruppen ein, die nach den jeweiligen sektorspezifischen Rechtsvorschriften der Union eingerichtet wurden.

(2) Bei der Ausarbeitung der in Absatz 1 genannten gemeinsamen Spezifikationen holt die Kommission die Stellungnahmen von Entwicklern und Anbietern von Hochrisiko-KI-Systemen sowie von einschlägigen Interessenträgern, etwa KMU und Start-up-Unternehmen, Zivilgesellschaft und Sozialpartnern oder Expertengruppen ein, die nach den jeweiligen sektorspezifischen Rechtsvorschriften der Union eingerichtet wurden.

Änderungsantrag  61

 

Vorschlag für eine Verordnung

Artikel 42 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Unter Berücksichtigung der Zweckbestimmung gilt für Hochrisiko-KI-Systeme, die mit Daten zu den besonderen geografischen, verhaltensbezogenen und funktionalen Rahmenbedingungen, unter denen sie bestimmungsgemäß verwendet werden sollen, trainiert und getestet wurden, die Vermutung, dass sie die in Artikel 10 Absatz 4 festgelegte Anforderung erfüllen.

(1) Unter Berücksichtigung der Zweckbestimmung gilt für Hochrisiko-KI-Systeme, die mit Daten zu den besonderen geografischen, verhaltensbezogenen, kontextuellen und funktionalen Rahmenbedingungen, unter denen sie bestimmungsgemäß verwendet werden sollen, trainiert und getestet wurden, die Vermutung, dass sie die in Artikel 10 Absatz 4 festgelegte Anforderung erfüllen.

Änderungsantrag  62

 

Vorschlag für eine Verordnung

Artikel 42 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Für Hochrisiko-KI-Systeme, die im Rahmen eines der Cybersicherheitszertifizierungssysteme gemäß der Verordnung (EU) 2019/881 des Europäischen Parlaments und des Rates63, deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht wurden, zertifiziert wurden oder für die eine solche Konformitätserklärung erstellt wurde, gilt die Vermutung, dass sie die in Artikel 15 der vorliegenden Verordnung festgelegten Cybersicherheitsanforderungen erfüllen, sofern diese Anforderungen von der Cybersicherheitszertifizierung oder der Konformitätserklärung oder Teilen davon abdeckt sind.

(2) Für Hochrisiko-KI-Systeme, die im Rahmen eines der Cybersicherheitszertifizierungssysteme gemäß der Verordnung (EU) 2019/881 des Europäischen Parlaments und des Rates63, deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht wurden, zertifiziert wurden oder für die eine solche Konformitätserklärung erstellt wurde, gilt die Vermutung, dass sie die in Artikel 15 der vorliegenden Verordnung, sofern anwendbar, festgelegten Cybersicherheitsanforderungen erfüllen, sofern diese Anforderungen von der Cybersicherheitszertifizierung oder der Konformitätserklärung oder Teilen davon abgedeckt sind.

__________________

__________________

63 Verordnung (EU) 2019/881 des Europäischen Parlaments und des Rates vom 17. April 2019 über die ENISA (Agentur der Europäischen Union für Cybersicherheit) und über die Zertifizierung der Cybersicherheit von Informations- und Kommunikationstechnik und zur Aufhebung der Verordnung (EU) Nr. 526/2013 (Rechtsakt zur Cybersicherheit) (ABl. L 151 vom 7.6.2019, S. 15).

63 Verordnung (EU) 2019/881 des Europäischen Parlaments und des Rates vom 17. April 2019 über die ENISA (Agentur der Europäischen Union für Cybersicherheit) und über die Zertifizierung der Cybersicherheit von Informations- und Kommunikationstechnik und zur Aufhebung der Verordnung (EU) Nr. 526/2013 (Rechtsakt zur Cybersicherheit) (ABl. L 151 vom 7.6.2019, S. 15).

Änderungsantrag  63

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 1 – Unterabsatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Sollte der Anbieter bereits über eine etablierte interne Organisation und die entsprechenden Strukturen für bestehende Konformitätsbewertungen oder Anforderungen im Rahmen anderer bestehender Regelungen verfügen, kann der Anbieter diese bestehenden Compliance-Strukturen, ganz oder teilweise, nutzen, solange diese über die Kapazität und Kompetenz verfügen, die Anforderungen für das Produkt gemäß dieser Verordnung zu erfüllen.

Änderungsantrag  64

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Aktualisierung der Anhänge VI und VII zu erlassen, um Elemente der Konformitätsbewertungsverfahren einzuführen, die angesichts des technischen Fortschritts erforderlich werden.

(5) Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Aktualisierung der Anhänge VI und VII zu erlassen, um Elemente der Konformitätsbewertungsverfahren einzuführen, die angesichts des technischen Fortschritts erforderlich werden. Die Kommission konsultiert den gemäß Artikel 56 eingerichteten Europäischen Ausschuss für künstliche Intelligenz sowie alle einschlägigen Interessenträger.

Änderungsantrag  65

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen.

(6) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen. Die Kommission konsultiert den gemäß Artikel 56 eingerichteten Europäischen Ausschuss für künstliche Intelligenz sowie alle einschlägigen Interessenträger.

Änderungsantrag  66

 

Vorschlag für eine Verordnung

Artikel 44 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die von notifizierten Stellen gemäß Anhang VII erteilten Bescheinigungen werden in einer Amtssprache der Union ausgefertigt, die der Mitgliedstaat, in dem die notifizierte Stelle niedergelassen ist, festlegt, oder in einer anderen Amtssprache der Union, mit der die notifizierte Stelle einverstanden ist.

(1) Die von notifizierten Stellen gemäß Anhang VII erteilten Bescheinigungen werden in einer oder mehreren Amtssprachen ausgefertigt, die der Mitgliedstaat, in dem die notifizierte Stelle niedergelassen ist, festlegt, oder in einer oder mehreren anderen Amtssprachen, mit der die notifizierte Stelle einverstanden ist.

Änderungsantrag  67

 

Vorschlag für eine Verordnung

Artikel 48 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Der Anbieter stellt für jedes KI-System eine schriftliche EU-Konformitätserklärung aus und hält sie für einen Zeitraum von 10 Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des KI-Systems für die zuständigen nationalen Behörden bereit. Aus der EU-Konformitätserklärung geht hervor, für welches KI-System sie ausgestellt wurde. Ein Exemplar der EU-Konformitätserklärung wird den zuständigen nationalen Behörden auf Anfrage zur Verfügung gestellt.

(1) Der Anbieter stellt für jedes KI-System eine schriftliche EU-Konformitätserklärung aus und hält sie für einen Zeitraum von 10 Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des KI-Systems für die zuständigen nationalen Behörden bereit. Aus der EU-Konformitätserklärung geht hervor, für welches KI-System sie ausgestellt wurde. Ein Exemplar der EU-Konformitätserklärung wird der zuständigen nationalen Behörde des Mitgliedstaats der Hauptniederlassung des Anbieters auf Anfrage der zuständigen Behörde zur Verfügung gestellt.

Änderungsantrag  68

 

Vorschlag für eine Verordnung

Artikel 51 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Ein außerhalb der Union konzipiertes, entwickeltes, trainiertes, validiertes, erprobtes oder zugelassenes Hochrisiko-KI-System, das in Verkehr gebracht oder in Betrieb genommen werden soll, kann nur dann in der EU-Datenbank gemäß Artikel 60 registriert und in der Union in Verkehr gebracht oder in Betrieb genommen werden, wenn nachgewiesen wird, dass in allen Phasen der Konzeption, der Entwicklung, des Trainings, der Validierung, der Erprobung oder der Zulassung alle von solchen KI-Systemen in der Union geforderten Verpflichtungen erfüllt wurden.

Änderungsantrag  69

 

Vorschlag für eine Verordnung

Artikel 51 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Vor der Nutzung eines in Artikel 6 Absatz 2 genannten KI-Systems registriert der Nutzer oder gegebenenfalls sein Bevollmächtigter dieses System in der in Artikel 60 genannten EU-Datenbank. Der Nutzer ergänzt für jede Hochrisiko-Nutzung eines dieser KI-Systeme einen neuen Registrierungseintrag.

Änderungsantrag  70

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) KI-Reallabore, die von den zuständigen Behörden eines oder mehrerer Mitgliedstaaten oder vom Europäischen Datenschutzbeauftragten eingerichtet werden, bieten eine kontrollierte Umgebung, um die Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme nach einem spezifischen Plan zu erleichtern. Dies geschieht unter direkter Aufsicht und Anleitung der zuständigen Behörden, um die Einhaltung der Anforderungen dieser Verordnung und gegebenenfalls anderer Rechtsvorschriften der Union und der Mitgliedstaaten, die innerhalb des Reallabors beaufsichtigt wird, sicherzustellen.

(1) KI-Reallabore, die von den zuständigen Behörden eines Mitgliedstaats oder mehrerer Mitgliedstaaten in Zusammenarbeit mit der Kommission oder vom Europäischen Datenschutzbeauftragten eingerichtet werden, bieten eine kontrollierte Umgebung, um die sichere Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme nach einem spezifischen Plan zu erleichtern, wobei KMU, Start-ups, Unternehmen, Innovatoren oder andere einschlägige Akteure als Partner in die Reallabore einbezogen werden könnten. Dies geschieht unter direkter Aufsicht und Anleitung der Kommission in Zusammenarbeit mit den zuständigen Behörden, um die Ermittlung von Risiken, insbesondere für die Gesundheit, die Sicherheit und die Grundrechte, und die Einhaltung der Anforderungen dieser Verordnung und gegebenenfalls anderer Rechtsvorschriften der Union und der Mitgliedstaaten, die innerhalb des Reallabors beaufsichtigt wird, sicherzustellen. Die Kommission übernimmt eine ergänzende Rolle, indem sie einerseits den Mitgliedstaaten, die nachweislich Erfahrung mit Reallaboren haben, die Möglichkeit gibt, auf ihrem Fachwissen aufzubauen, und andererseits den Mitgliedstaaten, die sich bei der Einrichtung und dem Betrieb dieser Reallabore beraten lassen wollen, mit technischem Verständnis und Ressourcen zur Seite steht.

Änderungsantrag  71

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Soweit die innovativen KI-Systeme personenbezogene Daten verarbeiten oder anderweitig der Aufsicht anderer nationaler Behörden oder zuständiger Behörden unterstehen, die den Zugang zu Daten gewähren oder unterstützen, sorgen die Mitgliedstaaten dafür, dass die nationalen Datenschutzbehörden und diese anderen nationalen Behörden in den Betrieb des KI-Reallabors einbezogen werden.

(2) Soweit die innovativen KI-Systeme personenbezogene Daten verarbeiten oder anderweitig der Aufsicht anderer nationaler Behörden oder zuständiger Behörden unterstehen, die den Zugang zu Daten gewähren oder unterstützen, sorgen die Mitgliedstaaten in Zusammenarbeit mit der Kommission dafür, dass die nationalen Datenschutzbehörden und diese anderen nationalen Behörden in den Betrieb des KI-Reallabors einbezogen werden.

Änderungsantrag  72

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden unberührt. Alle erheblichen Risiken für die Gesundheit und Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung solcher Systeme festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses bis eine solche Risikominderung erfolgt ist.

(3) Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden, auch auf regionaler oder lokaler Ebene, unberührt. Alle erheblichen Risiken für die Gesundheit und Sicherheit, die Grundrechte die Demokratie oder die Umwelt, die bei der Entwicklung und Erprobung von KI-Systemen festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses bis eine solche Risikominderung erfolgt ist.

Änderungsantrag  73

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Die zuständigen Behörden der Mitgliedstaaten, die KI-Reallabore eingerichtet haben, koordinieren ihre Tätigkeiten und arbeiten im Rahmen des Europäischen Ausschusses für künstliche Intelligenz zusammen. Sie übermitteln dem Ausschuss und der Kommission jährliche Berichte über die Ergebnisse der Umsetzung dieser Systeme, einschließlich bewährter Verfahren, gewonnener Erkenntnisse und Empfehlungen zu deren Aufbau, sowie gegebenenfalls über die Anwendung dieser Verordnung und anderer Rechtsvorschriften der Union, die innerhalb des Reallabors kontrolliert werden.

(5) Die zuständigen Behörden der Mitgliedstaaten und die Kommission koordinieren ihre Tätigkeiten in Bezug auf KI-Reallabore und arbeiten im Rahmen des Europäischen Ausschusses für künstliche Intelligenz zusammen. Die Kommission übermittelt dem Europäischen Ausschuss für künstliche Intelligenz jährliche Berichte über die Ergebnisse der Umsetzung dieser Systeme, einschließlich bewährter Verfahren, rechnerischer Energienutzung und -effizienz, gewonnener Erkenntnisse und Empfehlungen zu deren Aufbau, sowie gegebenenfalls über die Anwendung dieser Verordnung und anderer Rechtsvorschriften der Union, die innerhalb des Reallabors kontrolliert werden. KMU, Start-ups, Unternehmen und andere Innovatoren sind aufgefordert, den zuständigen Behörden der Mitgliedstaaten ihre bewährten Verfahren, Erfahrungen und Empfehlungen zu ihren KI-Reallaboren zu übermitteln.

Änderungsantrag  74

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) Die Kommission erstellt ein Arbeitsprogramm der EU für KI-Reallabore, dessen Modalitäten in Artikel 53 Absatz 6 dargelegt sind und das die in Anhang IXa beschriebenen Elemente umfasst. Die Kommission stimmt sich proaktiv mit den nationalen und gegebenenfalls lokalen Behörden ab.

Änderungsantrag  75

 

Vorschlag für eine Verordnung

Artikel 55 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Maßnahmen für Kleinanbieter und Kleinnutzer

Maßnahmen für KMU, Start-up-Unternehmen und Nutzer

Änderungsantrag  76

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Gewährung eines vorrangigen Zugangs zu den KI-Reallaboren für Kleinanbieter und Start-up-Unternehmen, soweit sie die entsprechenden Voraussetzungen erfüllen;

a) Gewährung eines vorrangigen Zugangs zu den KI-Reallaboren für in der Union niedergelassene KMU und Start-up-Unternehmen, soweit sie die entsprechenden Voraussetzungen erfüllen;

Änderungsantrag  77

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Durchführung besonderer Sensibilisierungsmaßnahmen für die Anwendung dieser Verordnung, die auf die Bedürfnisse der Kleinanbieter und Kleinnutzer ausgerichtet sind;

b) Durchführung besonderer Sensibilisierungsmaßnahmen und Entwicklung von verbesserten digitalen Kompetenzen für die Anwendung dieser Verordnung, die auf die Bedürfnisse der KMU, Start-up-Unternehmen und Kleinnutzer ausgerichtet sind;

Änderungsantrag  78

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) gegebenenfalls Einrichtung eines eigenen Kanals für die Kommunikation mit Kleinanbietern, Kleinnutzern und anderen Innovatoren, um Orientierungen zu geben und Fragen zur Durchführung dieser Verordnung zu beantworten.

c) Nutzung der entsprechenden bestehenden Kanäle und gegebenenfalls Einrichtung neuer Kanäle für die Kommunikation mit KMU, Start-up-Unternehmen, Nutzern und anderen Innovatoren, um Orientierungen zu geben und Fragen zur Durchführung dieser Verordnung zu beantworten.

Änderungsantrag  79

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) Förderung der Beteiligung von KMU und anderen einschlägigen Interessenträgern an der Entwicklung von Normen;

Änderungsantrag  80

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Festsetzung der Gebühren für die Konformitätsbewertung gemäß Artikel 43 werden die besonderen Interessen und Bedürfnisse von Kleinanbietern berücksichtigt, indem diese Gebühren proportional zu ihrer Größe und der Größe ihres Marktes gesenkt werden.

(2) Bei der Festsetzung der Gebühren für die Konformitätsbewertung gemäß Artikel 43 werden die besonderen Interessen und Bedürfnisse von KMU, Start-up-Unternehmen und Nutzern berücksichtigt, indem diese Gebühren proportional zu ihrem Entwicklungsstand, ihrer Größe, der Größe ihres Marktes und der Marktnachfrage gesenkt werden. Die Kommission bewertet regelmäßig die Zertifizierungs- und Befolgungskosten für KMU und Start-up-Unternehmen, unter anderem durch transparente Konsultationen mit KMU, Start-up-Unternehmen und Nutzern, und arbeitet mit den Mitgliedstaaten zusammen, um diese Kosten nach Möglichkeit zu senken. Die Kommission erstattet dem Europäischen Parlament und dem Rat im Rahmen des Berichts über die Bewertung und Überarbeitung dieser Verordnung gemäß Artikel 84 Absatz 2 Bericht über diese Ergebnisse.

Änderungsantrag  81

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Der Ausschuss setzt einen Beirat für künstliche Intelligenz (Beirat) ein. Der Beirat setzt sich aus maßgeblichen Vertretern der Industrie, der Forschung, der Wissenschaft, der Zivilgesellschaft und der Normungsorganisationen sowie anderen maßgeblichen Interessenträgern oder Dritten zusammen, die vom Ausschuss benannt werden und alle Mitgliedstaaten vertreten, um das geografische Gleichgewicht zu wahren. Der Beirat unterstützt die Tätigkeit des Ausschusses, indem er diesen bei seinen Aufgaben berät. Je nachdem, in welcher Zusammensetzung der Beirat zusammentritt, ernennt der Ausschuss einen maßgeblichen Vertreter, der an den Sitzungen des Ausschusses teilnimmt und sich an seiner Arbeit beteiligt. Die Zusammensetzung des Beirats und seine Empfehlungen an den Ausschuss werden veröffentlicht.

Änderungsantrag  82

 

Vorschlag für eine Verordnung

Anhang I – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Statistische Ansätze, Bayessche Schätz-, Such- und Optimierungsmethoden.

c) Statistische Ansätze für Lernen und Inferenz, Bayessche Schätz-, Such- und Optimierungsmethoden.

Änderungsantrag  83

 

Vorschlag für eine Verordnung

Anhang IX a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ANHANG IXa

 

Modalitäten für ein Arbeitsprogramm der EU für KI-Reallabore

 

1. Die KI-Reallabore sind Teil des Arbeitsprogramms der EU für KI-Reallabore („Reallabor-Programm“), das von der Kommission in Zusammenarbeit mit den Mitgliedstaaten eingerichtet wird.

 

2. Die Kommission übernimmt eine ergänzende Rolle, indem sie einerseits Mitgliedstaaten, die nachweislich Erfahrung mit Reallaboren haben, die Möglichkeit gibt, auf ihrer Erfahrung und dem Fachwissen einschlägiger Akteure der Industrie, von KMU, dem akademischen Umfeld und der Zivilgesellschaft aufzubauen, und andererseits den Mitgliedstaaten, die sich bei der Einrichtung dieser Reallabore beraten lassen wollen, mit technischem Verständnis und Ressourcen zur Seite steht.

 

3. Die Kriterien für den Zugang zu Reallaboren sind transparent und wettbewerbsorientiert.

 

4. Teilnehmer am Reallabor-Programm, insbesondere Kleinanbieter, erhalten Zugang zu im Voraus bereitgestellten Dienstleistungen, wie zur vorläufigen Registrierung ihres KI-Systems, zu Unterstützungsdiensten zur Compliance im Bereich Forschung und Entwicklung und zu allen anderen relevanten Elementen des KI-Ökosystems der EU und anderer Initiativen im digitalen Binnenmarkt, wie Erprobungs- und Versuchseinrichtungen, digitalen Knotenpunkten, Kompetenzzentren und EU-Benchmarking-Kapazitäten, sowie zu weiteren wertvollen Dienstleistungen wie Normungsdokumenten und Zertifizierungen, der Konsultation und Unterstützung bei der Durchführung von Bewertungen der Auswirkungen von KI-Systemen auf die Grundrechte, die Umwelt und die Gesellschaft als Ganzes, einer sozialen Online-Plattform für die Gemeinschaft, Kontaktdatenbanken, einem vorhandenen Portal für Ausschreibungen und Förderung und Listen von EU-Investoren.

 

5. Das Reallabor-Programm ist in einer späteren Entwicklungsphase darauf ausgerichtet, die Mitgliedstaaten bei der Entwicklung und Verwaltung von zwei Arten von Reallaboren zu unterstützen: physische Reallabore für KI-Systeme, die in physische Produkte oder Dienstleistungen eingebettet sind, und Cyber-Reallabore für KI-Systeme, die eigenständig betrieben und genutzt werden und nicht in physische Produkte oder Dienstleistungen eingebettet sind.

 

6. Bei dem Reallabor-Programm soll mit den bereits eingerichteten digitalen Innovationszentren in den Mitgliedstaaten zusammengearbeitet werden, um Unternehmern einen ausgewiesenen Kontaktpunkt für Anfragen an die zuständigen Behörden und für eine unverbindliche Beratung zur Konformität innovativer Produkte, Dienstleistungen oder Geschäftsmodelle, in die KI-Technologien integriert sind, zu bieten.

 

7. Eines der Ziele des Reallabor-Programms besteht darin, Unternehmen in die Lage zu versetzen, in der Phase der Konzeption des KI-Systems für die Einhaltung dieser Verordnung zu sorgen („Compliance-by-Design“). Zu diesem Zweck soll das Programm die Entwicklung von Software-Tools und Infrastruktur für die Erprobung, das Benchmarking, die Bewertung und die Erklärung der Dimensionen von KI-Systemen, die für Reallabore von Bedeutung sind, etwa Genauigkeit, Robustheit und Cybersicherheit, sowie die Minimierung der Risiken für die Grundrechte, die Umwelt und die Gesellschaft als Ganzes, erleichtern.

 

8. Das Reallabor-Programm wird phasenweise umgesetzt, wobei die einzelnen Phasen von der Kommission jeweils eingeleitet werden, wenn die vorherige Phase erfolgreich war.

 

9. Das Reallabor-Programm wird über ein integriertes Verfahren zur Folgenabschätzung verfügen, um die Prüfung der Kosteneffizienz gegenüber den vereinbarten Zielen zu erleichtern. Diese Bewertung wird unter Mitwirkung der Mitgliedstaaten auf der Grundlage von deren Erfahrungen erstellt und von der Kommission im Rahmen des Jahresberichts dem Europäischen Ausschuss für künstliche Intelligenz vorgelegt.


VERFAHREN DES MITBERATENDEN AUSSCHUSSES

Titel

Harmonisierte Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und Änderung bestimmter Rechtsakte der Union

Bezugsdokumente – Verfahrensnummer

COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)

Federführende Ausschüsse

 Datum der Bekanntgabe im Plenum

IMCO

7.6.2021

LIBE

7.6.2021

 

 

Stellungnahme von

 Datum der Bekanntgabe im Plenum

ITRE

7.6.2021

Assoziierte Ausschüsse - Datum der Bekanntgabe im Plenum

16.12.2021

Verfasser(in) der Stellungnahme

 Datum der Benennung

Eva Maydell

11.1.2022

Artikel 58 – Gemeinsames Ausschussverfahren

 Datum der Bekanntgabe im Plenum

 

 

16.12.2021

Prüfung im Ausschuss

21.3.2022

 

 

 

Datum der Annahme

14.6.2022

 

 

 

Ergebnis der Schlussabstimmung

+:

–:

0:

61

2

0

Zum Zeitpunkt der Schlussabstimmung anwesende Mitglieder

François-Xavier Bellamy, Hildegard Bentele, Tom Berendsen, Vasile Blaga, Michael Bloss, Marc Botenga, Cristian-Silviu Buşoi, Jerzy Buzek, Maria da Graça Carvalho, Ignazio Corrao, Ciarán Cuffe, Nicola Danti, Pilar del Castillo Vera, Martina Dlabajová, Christian Ehler, Niels Fuglsang, Lina Gálvez Muñoz, Jens Geier, Nicolás González Casares, Christophe Grudler, Henrike Hahn, Robert Hajšel, Ivars Ijabs, Romana Jerković, Seán Kelly, Łukasz Kohut, Zdzisław Krasnodębski, Andrius Kubilius, Thierry Mariani, Marisa Matias, Eva Maydell, Iskra Mihaylova, Dan Nica, Angelika Niebler, Niklas Nienaß, Mauri Pekkarinen, Mikuláš Peksa, Tsvetelina Penkova, Morten Petersen, Pina Picierno, Clara Ponsatí Obiols, Manuela Ripa, Robert Roos, Sara Skyttedal, Maria Spyraki, Patrizia Toia, Pernille Weiss, Carlos Zorrinho

Zum Zeitpunkt der Schlussabstimmung anwesende Stellvertreter

Franc Bogovič, Andrea Caroppo, Jakop G. Dalunde, Jens Gieseke, Klemen Grošelj, Elena Kountoura, Marian-Jean Marinescu, Dace Melbārde, Dominique Riquet, Rob Rooken, Susana Solís Pérez

Zum Zeitpunkt der Schlussabstimmung anwesende Stellv. (Art. 209 Abs. 7)

Alessandra Basso, Bas Eickhout, Carlo Fidanza, Rob Rooken

 


 

NAMENTLICHE SCHLUSSABSTIMMUNG IM MITBERATENDEN AUSSCHUSS

61

+

ECR

Carlo Fidanza, Zdzisław Krasnodębski, Dace Melbārde, Rob Rooken, Robert Roos

ID

Alessandra Basso, Thierry Mariani

NI

Clara Ponsatí Obiols

PPE

François-Xavier Bellamy, Hildegard Bentele, Tom Berendsen, Vasile Blaga, Franc Bogovič, Cristian-Silviu Buşoi, Jerzy Buzek, Andrea Caroppo, Maria da Graça Carvalho, Pilar del Castillo Vera, Christian Ehler, Jens Gieseke, Seán Kelly, Andrius Kubilius, Marian-Jean Marinescu, Eva Maydell, Angelika Niebler, Sara Skyttedal, Maria Spyraki, Pernille Weiss

RENEW

Nicola Danti, Martina Dlabajová, Klemen Grošelj, Christophe Grudler, Ivars Ijabs, Iskra Mihaylova, Mauri Pekkarinen, Morten Petersen, Dominique Riquet, Susana Solís Pérez

S&D

Niels Fuglsang, Lina Gálvez Muñoz, Jens Geier, Nicolás González Casares, Robert Hajšel, Ivo Hristov, Romana Jerković, Łukasz Kohut, Dan Nica, Tsvetelina Penkova, Pina Picierno, Patrizia Toia, Carlos Zorrinho

THE LEFT

Elena Kountoura

VERTS/ALE

Michael Bloss, Ignazio Corrao, Ciarán Cuffe, Jakop G. Dalunde, Bas Eickhout, Henrike Hahn, Niklas Nienaß, Mikuláš Peksa, Manuela Ripa

 

2

-

THE LEFT

Marc Botenga, Marisa Matias

 

0

0

 

 

 

Erklärung der benutzten Zeichen:

+ : dafür

- : dagegen

0 : Enthaltung


 

STELLUNGNAHME DES AUSSCHUSSES FÜR KULTUR UND BILDUNG (16.6.2022)

für den Ausschuss für Binnenmarkt und Verbraucherschutz und den Ausschuss für bürgerliche Freiheiten, Justiz und Inneres

zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union

(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))

Verfasser der Stellungnahme: (*): Marcel Kolaja

(*) Assoziierter Ausschuss – Artikel 57 der Geschäftsordnung

 

 

KURZE BEGRÜNDUNG

Am 24. April 2021 veröffentlichte die Kommission ihren Legislativvorschlag zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-Gesetz), mit dem ein Rechtsrahmen eingeführt wird, durch den dafür gesorgt werden soll, dass die Nutzung von KI-Systemen, die in der Europäischen Union in Verkehr gebracht werden, sicher ist und dass dabei die Grundrechte und die Werte der Europäischen Union geachtet werden.

Darüber hinaus werden durch den Vorschlag die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen erleichtert, die Governance und die wirksame Durchsetzung des geltenden Rechts zur Wahrung der Grundrechte sowie die Sicherheitsanforderungen an KI-Systeme gestärkt und es wird für Rechtssicherheit gesorgt, um Investitionen und Innovationen im Bereich der künstlichen Intelligenz zu fördern.

Insgesamt wird der Vorschlag der Kommission begrüßt. In dieser Stellungnahme werden jedoch einige Anregungen für Änderungen gegeben – hauptsächlich, um die Liste der Hochrisiko-KI-Anwendungen in Bezug auf die Bereiche Bildung, Medien und Kultur in Anhang III zu erweitern und um einige Bestimmungen zu verbotenen Praktiken in Artikel 5 zu ändern.

Konkret wird in dieser Stellungnahme dem zunehmenden Einsatz von KI-Technologien in Einrichtungen der allgemeinen und beruflichen Bildung Rechnung getragen. Daher wird vorgeschlagen, auch solche KI-Technologien als hochriskant einzustufen, die zur Überwachung von Schülern und Studierenden bei Prüfungen oder zur Bestimmung des zu absolvierenden Fachgebiets oder Studiengangs dienen. In Bezug auf Medien und Kultur wird die Auffassung vertreten, dass KI-Technologien, die zur Erstellung oder Verbreitung maschinell erzeugter Nachrichtenartikel verwendet werden, sowie KI-Technologien, die zur Empfehlung oder Priorisierung audiovisueller Inhalte eingesetzt werden, als hochriskant einzustufen sind.

Darüber hinaus wird empfohlen, das Verbot des Einsatzes von Systemen, die das soziale Verhalten natürlicher Personen bewerten, auf die Nutzung durch öffentliche und private Stellen auszuweiten, da die Gefahr der Diskriminierung und des Ausschlusses bestimmter Gruppen oder Personen besteht.

Angesichts der Gefahr, die der Einsatz biometrischer Fernidentifizierungssysteme in öffentlich zugänglichen Räumen für die Grundrechte der Bürger, die Versammlungsfreiheit sowie die Arbeit von investigativen Journalisten, Aktivisten und politischen Vertretern darstellt, wird schließlich vorgeschlagen, den Einsatz solcher Technologien in öffentlich zugänglichen Räumen im Einklang mit der Entschließung des Parlaments vom 6. Oktober 2021 zu dem Thema: „Künstliche Intelligenz im Strafrecht und ihre Verwendung durch die Polizei und Justizbehörden in Strafsachen“ zu verbieten.


ÄNDERUNGSANTRÄGE

Der Ausschuss für Kultur und Bildung ersucht den Ausschuss für Binnenmarkt und Verbraucherschutz und den Ausschuss für bürgerliche Freiheiten, Justiz und Inneres als federführende Ausschüsse, folgende Änderungsanträge zu berücksichtigen:

Änderungsantrag  1

 

Vorschlag für eine Verordnung

Erwägung 1

 

Vorschlag der Kommission

Geänderter Text

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union festgelegt wird. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit und der Grundrechte, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen auf der Grundlage ethischer Grundsätze insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union festgelegt wird, wobei das Risiko nachteiliger und diskriminierender Auswirkungen auf die Menschen zu minimieren ist, ohne Innovationen zu beeinträchtigen. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit und der Grundrechte der Demokratie, der Rechtsstaatlichkeit und der Umwelt, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

Änderungsantrag  2

 

Vorschlag für eine Verordnung

Erwägung 2

 

Vorschlag der Kommission

Geänderter Text

(2) Systeme der künstlichen Intelligenz (KI-Systeme) können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit künstliche Intelligenz sicher ist und unter Einhaltung der Grundrechte entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und würden die Rechtssicherheit für Akteure, die KI-Systeme entwickeln oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, wobei Unterschiede, die den freien Verkehr von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Verpflichtungen auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird. Soweit diese Verordnung konkrete Vorschriften zum Schutz von Privatpersonen im Hinblick auf die Verarbeitung personenbezogener Daten enthält, mit denen vor allem die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eingeschränkt wird, sollte sich diese Verordnung in Bezug auf diese konkreten Vorschriften auch auf Artikel 16 AEUV stützen. Angesichts dieser konkreten Vorschriften und des Rückgriffs auf Artikel 16 AEUV ist es angezeigt, den Europäischen Datenschutzausschuss zu konsultieren.

(2) Systeme der künstlichen Intelligenz (KI-Systeme) können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit künstliche Intelligenz vertrauenswürdig und sicher ist und unter Einhaltung der Grundrechte entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und würden die Rechtssicherheit für Akteure, die KI-Systeme entwickeln oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, um eine vertrauenswürdige KI zu erreichen, wobei Unterschiede, die den freien Verkehr, Innovationen, den Einsatz und die Einführung von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Verpflichtungen auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird. Soweit diese Verordnung konkrete Vorschriften zum Schutz von Privatpersonen im Hinblick auf die Verarbeitung personenbezogener Daten enthält, mit denen vor allem die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eingeschränkt wird, sollte sich diese Verordnung in Bezug auf diese konkreten Vorschriften auch auf Artikel 16 AEUV stützen. Angesichts dieser konkreten Vorschriften und des Rückgriffs auf Artikel 16 AEUV ist es angezeigt, den Europäischen Datenschutzausschuss zu konsultieren.

Änderungsantrag  3

 

Vorschlag für eine Verordnung

Erwägung 3

 

Vorschlag der Kommission

Geänderter Text

(3) Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, allgemeine und berufliche Bildung, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz sowie Klimaschutz und Anpassung an den Klimawandel.

(3) Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können und bereits beitragen, wenn sie im Einklang mit ethischen Grundsätzen entwickelt wurden. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, allgemeine und berufliche Bildung, Medien, Sport und Kultur, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz sowie Klimaschutz und Anpassung an den Klimawandel.

Änderungsantrag  4

 

Vorschlag für eine Verordnung

Erwägung 4

 

Vorschlag der Kommission

Geänderter Text

(4) Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und öffentliche Interessen und Rechte schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein.

(4) Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und öffentliche Interessen und Rechte schädigen, die durch das Unionsrecht geschützt sind, darunter die Grundrechte von Arbeitnehmern, Menschen in Lernprozessen und sozial engagierten Menschen, den Schutz der Privatsphäre, den Datenschutz und die informationelle Selbstbestimmung, gesellschaftliche oder ökologische Rechte. Ein solcher Schaden kann materieller oder immaterieller Art sein.

Änderungsantrag  5

 

Vorschlag für eine Verordnung

Erwägung 5

 

Vorschlag der Kommission

Geänderter Text

(5) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie Gesundheit und Sicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Durch die Festlegung dieser Vorschriften unterstützt die Verordnung das vom Europäischen Rat33 formulierte Ziel der Union, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament34 ausdrücklich geforderten Schutz von Ethikgrundsätzen.

(5) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie Gesundheit und Sicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte, der Demokratie, der Rechtsstaatlichkeit und der Umwelt zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Durch die Festlegung dieser Vorschriften unterstützt die Verordnung das vom Europäischen Rat33 formulierte Ziel der Union, bei der Entwicklung einer sicheren, vertrauenswürdigen, ethisch vertretbaren und auf den Grundrechten beruhenden künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament34 ausdrücklich geforderten Schutz von Ethikgrundsätzen mit einem Vorgehen, bei dem der Mensch im Mittelpunkt steht, und unter Achtung des Rechtes auf freie Meinungsäußerung, der Redefreiheit, der Freiheit und des Pluralismus der Medien sowie der Vielfalt.

__________________

__________________

33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.

33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.

34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).

34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).

Änderungsantrag  6

Vorschlag für eine Verordnung

Erwägung 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Um die Entwicklung, die Einführung und das Verständnis von KI zu fördern, muss die Union weitere Anstrengungen im Bereich der allgemeinen und beruflichen Bildung unternehmen, um unter anderem den Mangel an IKT-Fachkräften und Grundstudiengängen im Bereich KI, digital qualifizierten Arbeitskräften sowie das Fehlen selbst grundlegender digitaler Kompetenzen bei einem erheblichen Teil der Bevölkerung der Union anzugehen.

 

Änderungsantrag  7

Vorschlag für eine Verordnung

Erwägung 5 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5b) Der Mangel an öffentlichen und privaten Investitionen untergräbt derzeit die Entwicklung und Nutzung von KI-Systemen in der gesamten Union, insbesondere im Vergleich zu anderen großen Industriestaaten. Besondere Aufmerksamkeit, Anreize und Unterstützung sollten der Förderung der Einführung von KI in KMU gewidmet werden, einschließlich im Bildungsbereich, in den Kultur- und Kreativbranchen und in der Kultur- und Kreativwirtschaft.

Änderungsantrag  8

 

Vorschlag für eine Verordnung

Erwägung 9

 

Vorschlag der Kommission

Geänderter Text

(9) Für die Zwecke dieser Verordnung sollte der Begriff „öffentlich zugänglicher Raum“ so verstanden werden, dass er sich auf einen der Öffentlichkeit zugänglichen physischen Ort bezieht, unabhängig davon, ob sich der betreffende Ort in privatem oder öffentlichem Eigentum befindet. Daher erfasst der Begriff keine privaten Orte, wie Privathäuser, private Clubs, Büros, Lager und Fabriken, die normalerweise für Dritte, einschließlich Strafverfolgungsbehörden, nicht frei zugänglich sind, es sei denn, diese wurden ausdrücklich eingeladen oder ihr Zugang ausdrücklich erlaubt. Auch Online-Räume werden nicht erfasst, da es sich nicht um physische Räume handelt. Die bloße Tatsache, dass bestimmte Bedingungen für den Zugang zu einem bestimmten Raum gelten können, wie Eintrittskarten oder Altersbeschränkungen, bedeutet jedoch nicht, dass der Raum im Sinne dieser Verordnung nicht öffentlich zugänglich ist. Folglich sind neben öffentlichen Räumen wie Straßen, relevanten Teilen von Regierungsgebäuden und den meisten Verkehrsinfrastrukturen auch Bereiche wie Kinos, Theater, Geschäfte und Einkaufszentren in der Regel öffentlich zugänglich. Ob ein bestimmter Raum öffentlich zugänglich ist, sollte jedoch von Fall zu Fall unter Berücksichtigung der Besonderheiten der jeweiligen individuellen Situation entschieden werden.

(9) Für die Zwecke dieser Verordnung sollte der Begriff „öffentlich zugänglicher Raum“ so verstanden werden, dass er sich auf einen der Öffentlichkeit zugänglichen physischen oder virtuellen Ort bezieht, unabhängig davon, ob sich der betreffende Ort in privatem oder öffentlichem Eigentum befindet. Daher erfasst der Begriff keine privaten Orte, wie Privathäuser, private Clubs, Büros, Lager, Fabriken und andere private Räume, die normalerweise für Dritte, einschließlich Strafverfolgungsbehörden, nicht frei zugänglich sind, es sei denn, diese wurden ausdrücklich eingeladen oder ihr Zugang ausdrücklich erlaubt. Derselbe Grundsatz sollte auch für geschützte virtuelle öffentlich zugängliche Räume gelten. Die bloße Tatsache, dass bestimmte Bedingungen für den Zugang zu einem bestimmten Raum gelten können, wie Eintrittskarten oder Altersbeschränkungen, bedeutet jedoch nicht, dass der Raum im Sinne dieser Verordnung nicht öffentlich zugänglich ist. Folglich sind neben öffentlichen Räumen wie Straßen, Parks, Sportanlagen, relevanten Teilen von Regierungsgebäuden und den meisten Verkehrsinfrastrukturen auch Bereiche wie Kinos, Theater, Geschäfte, Museen, Bibliotheken, Denkmäler, Kulturstätten und Kulturinstitutionen sowie Einkaufszentren in der Regel öffentlich zugänglich. Ob ein bestimmter Raum öffentlich zugänglich ist, sollte jedoch von Fall zu Fall unter Berücksichtigung der Besonderheiten der jeweiligen individuellen Situation entschieden werden.

Änderungsantrag  9

 

Vorschlag für eine Verordnung

Erwägung 13

 

Vorschlag der Kommission

Geänderter Text

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit sowie die Grundrechte zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit, die Sicherheit, die Grundrechte, die Demokratie, die Rechtsstaatlichkeit und die Umwelt zu gewährleisten, werden für alle Hochrisiko-KI-Systeme eine Reihe von ethischen Grundsätzen sowie gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“), der Mitteilung der Kommission vom 11. Dezember 2019 mit dem Titel „Der europäische Grüne Deal“ und der europäischen Erklärung vom 26. Januar 2022 zu den digitalen Rechten und Grundsätzen für die digitale Dekade im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.

 

Änderungsantrag  10

Vorschlag für eine Verordnung

Erwägung 14 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(14b) Der Begriff „KI-Kompetenz“ bezieht sich auf die Fähigkeiten, Kenntnisse und das Verständnis, die es sowohl den Bürgern als auch den Akteuren im Rahmen der in dieser Verordnung festgelegten Verpflichtungen ermöglichen, KI-Systeme in Kenntnis der Sachlage einzusetzen und zu nutzen sowie ein Bewusstsein für die Chancen und Risiken der KI zu entwickeln und dadurch ihre demokratische Kontrolle zu fördern. Die KI-Kompetenz sollte sich nicht nur auf das Erlernen von Instrumenten und Technologien beschränken, sondern auch darauf abzielen, den Bürgern und den Akteuren im Zusammenhang mit den in dieser Verordnung festgelegten Verpflichtungen die Fähigkeit zum kritischen Denken zu vermitteln, die erforderlich ist, um schädliche oder manipulative Verwendungen zu erkennen, sowie ihr Handeln und ihre Fähigkeit, die Anforderungen vollständig einzuhalten und vertrauenswürdige KI zu nutzen, zu verbessern. Es ist daher notwendig, dass die Kommission, die Mitgliedstaaten und die Betreiber von KI-Systemen in Zusammenarbeit mit allen relevanten Interessengruppen den Ausbau der KI-Kompetenz in allen Gesellschaftsschichten und bei Bürgern aller Altersgruppen, einschließlich Frauen und Mädchen, fördern und die diesbezüglichen Fortschritte genau verfolgen.

 

Änderungsantrag  11

 

Vorschlag für eine Verordnung

Erwägung 15

 

Vorschlag der Kommission

Geänderter Text

(15) Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten künstlicher Intelligenz kann diese Technik auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der Grundrechte in der Union, einschließlich des Rechts auf Nichtdiskriminierung, Datenschutz und Privatsphäre sowie der Rechte des Kindes.

(15) Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten künstlicher Intelligenz kann diese Technik auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der Grundrechte in der Union, einschließlich des Rechts auf Nichtdiskriminierung, Schutz von Angestellten und Arbeitnehmern, Datenschutz und Privatsphäre und Gleichstellung der Geschlechter sowie der Rechte des Kindes.

 

Änderungsantrag  12

Vorschlag für eine Verordnung

Erwägung 27

 

Vorschlag der Kommission

Geänderter Text

(27) Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht oder in Betrieb genommen werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben.

(27) Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht oder in Betrieb genommen werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union sowie auf die Gesellschaft und auf die Umwelt haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben.

 

Änderungsantrag  13

Vorschlag für eine Verordnung

Erwägung 28

 

Vorschlag der Kommission

Geänderter Text

(28) KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Komponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein. Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, die Unschuldsvermutung und das Verteidigungsrecht sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen verursachen kann, ebenfalls Rechnung getragen werden.

(28) KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Komponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein. Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, das Recht auf Bildung, der Verbraucherschutz und die Arbeitnehmerrechte. Besonderes Augenmerk sollte auf die Gleichstellung der Geschlechter, die Rechte von Menschen mit Behinderungen, das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, die Unschuldsvermutung und das Verteidigungsrecht, das Recht auf eine gute Verwaltung, den Schutz der Rechte des geistigen Eigentums und die Sicherstellung der kulturellen Vielfalt gelegt werden. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen oder auf die Umwelt – wobei die Gewinnung und der Verbrauch natürlicher Ressourcen, Abfälle und der CO2-Fußabdruck zu berücksichtigen sind – verursachen kann, ebenfalls Rechnung getragen werden.

 

Änderungsantrag  14

Vorschlag für eine Verordnung

Erwägung 33

 

Vorschlag der Kommission

Geänderter Text

(33) Technische Ungenauigkeiten von KI-Systemen, die für die biometrische Fernidentifizierung natürlicher Personen bestimmt sind, können zu verzerrten Ergebnissen führen und eine diskriminierende Wirkung haben. Dies ist von besonderer Bedeutung, wenn es um das Alter, die ethnische Herkunft, das Geschlecht oder Behinderungen geht. Daher sollten biometrische Echtzeit-Fernidentifizierungssysteme und Systeme zur nachträglichen biometrischen Fernidentifizierung als hochriskant eingestuft werden. Angesichts der mit ihnen verbundenen Risiken sollten für beide Arten von biometrischen Fernidentifizierungssystemen besondere Anforderungen im Hinblick auf die Protokollierungsfunktionen und die menschliche Aufsicht gelten.

(33) Technische Ungenauigkeiten von KI-Systemen, die für die biometrische Identifizierung natürlicher Personen bestimmt sind, können zu verzerrten Ergebnissen führen und eine diskriminierende Wirkung haben. Dies ist von besonderer Bedeutung, wenn es um das Alter, die ethnische Herkunft, das Geschlecht oder Behinderungen geht. Daher sollten biometrische Echtzeit-Fernidentifizierungssysteme und Systeme zur nachträglichen biometrischen Fernidentifizierung als hochriskant eingestuft werden. Angesichts der mit ihnen verbundenen Risiken sollten für beide Arten von biometrischen Identifizierungssystemen besondere Anforderungen im Hinblick auf die Protokollierungsfunktionen und die menschliche Aufsicht gelten. Biometrische Identifizierungssysteme, die nicht der Fernidentifizierung dienen und für den Einsatz in öffentlich zugänglichen Räumen, an Arbeitsplätzen und in Einrichtungen der allgemeinen und beruflichen Bildung bestimmt sind, bergen ebenfalls ein hohes Risiko. Die Einstufung biometrischer Identifizierungssysteme, die nicht der Fernidentifizierung dienen und für den Einsatz in öffentlich zugänglichen Räumen, an Arbeitsplätzen und in Einrichtungen der allgemeinen und beruflichen Bildung bestimmt sind, als Hochrisiko-KI-System sollte von Fall zu Fall erfolgen.

 

Änderungsantrag  15

Vorschlag für eine Verordnung

Erwägung 34 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(34a) Die Einführung von KI-Systemen im Bildungsbereich ist unabdingbar, um zur Modernisierung ganzer Bildungssysteme beizutragen, die Qualität der Bildung sowohl offline als auch online zu erhöhen und die digitale Bildung zu beschleunigen und sie somit auch einem breiteren Publikum zugänglich zu machen. KI-gestützte digitale Bildung ist zwar kein Ersatz für den Präsenzunterricht, sie ist jedoch zunehmend notwendig, um das gesellschaftliche und wirtschaftliche Wachstum sowie die Inklusivität zu fördern und das Bildungsniveau und den Zugang zur Bildung für den Einzelnen zu verbessern.

 

Änderungsantrag  16

 

Vorschlag für eine Verordnung

Erwägung 35

 

Vorschlag der Kommission

Geänderter Text

(35) KI-Systeme, die in der allgemeinen oder beruflichen Bildung eingesetzt werden, insbesondere um den Zugang von Personen zu Bildungs- und Berufsbildungseinrichtungen oder ihrer Zuordnung dazu zu bestimmen oder um Personen im Rahmen von Prüfungen als Teil ihrer Ausbildung oder als Voraussetzung dafür zu bewerten, sollten als hochriskant angesehen werden, da sie über den Verlauf der Bildung und des Berufslebens einer Person entscheiden und daher ihre Fähigkeit beeinträchtigen können, ihren Lebensunterhalt zu sichern. Bei unsachgemäßer Konzeption und Verwendung können solche Systeme das Recht auf allgemeine und berufliche Bildung sowie das Recht auf Nichtdiskriminierung verletzen und historische Diskriminierungsmuster fortschreiben.

(35) KI-Systeme, die in der allgemeinen oder beruflichen Bildung eingesetzt werden, insbesondere um den Zugang von Personen zu Bildungs- und Berufsbildungseinrichtungen oder ihre Zuordnung dazu zu bestimmen, um Personen im Rahmen von Prüfungen als Teil ihrer Ausbildung oder als Voraussetzung dafür zu bewerten oder um die zu absolvierenden Studienfächer zu bestimmen, sollten als hochriskant angesehen werden, da sie über den Verlauf der Bildung und des Berufslebens einer Person entscheiden und daher ihre Fähigkeit beeinträchtigen können, ihren Lebensunterhalt zu sichern. Bei unsachgemäßer Konzeption, Entwicklung und Verwendung können solche Systeme das Recht auf allgemeine und berufliche Bildung sowie das Recht auf Nichtdiskriminierung verletzen und historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung. KI-Systeme, die zur Überwachung des Verhaltens und der Gefühle von Schülern und Studierenden bei Prüfungen in Einrichtungen der allgemeinen und beruflichen Bildung eingesetzt werden, sollten als hochriskant angesehen werden, da sie auch in die Rechte der Schüler und Studierenden auf Privatsphäre und Datenschutz eingreifen. Der Einsatz von KI zur Überprüfung von Bewertungen, beispielsweise von Prüfungsarbeiten auf Plagiate, sollte nicht als hochriskant angesehen werden.

Änderungsantrag  17

 

Vorschlag für eine Verordnung

Erwägung 36

 

Vorschlag der Kommission

Geänderter Text

(36) KI-Systeme, die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen, für Entscheidungen über Beförderung und Kündigung sowie für die Zuweisung, Überwachung oder Bewertung von Personen in Arbeitsvertragsverhältnissen, sollten ebenfalls als hochriskant eingestuft werden, da diese Systeme die künftigen Karriereaussichten und die Lebensgrundlagen dieser Personen spürbar beeinflussen können. Einschlägige Arbeitsvertragsverhältnisse sollten Beschäftigte und Personen erfassen, die Dienstleistungen über Plattformen erbringen, auf die im Arbeitsprogramm der Kommission für 2021 Bezug genommen wird. Solche Personen sollten grundsätzlich nicht als Nutzer im Sinne dieser Verordnung gelten. Solche Systeme können während des gesamten Einstellungsverfahrens und bei der Bewertung, Beförderung oder Nichtbeförderung von Personen in Arbeitsvertragsverhältnissen historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung. KI-Systeme zur Überwachung der Leistung und des Verhaltens dieser Personen können sich auch auf ihre Rechte auf Datenschutz und Privatsphäre auswirken.

(36) KI-Systeme, die in den Bereichen Beschäftigung, Beschäftigungsförderung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen, für Entscheidungen über Beförderung und Kündigung sowie für die Zuweisung von Aufgaben, für die Überwachung der Einhaltung von Vorschriften am Arbeitsplatz und die Überwachung oder Bewertung von Personen in Arbeitsverhältnissen, sollten ebenfalls als hochriskant eingestuft werden, da diese Systeme die für ihre Arbeit und ihren Arbeitsplatz geltenden Gesundheits-, Sicherheits- und Schutzvorschriften sowie die künftigen Karriereaussichten und die Lebensgrundlagen dieser Personen spürbar beeinflussen können. Einschlägige Arbeitsverhältnisse sollten Beschäftigte und Personen erfassen, die Dienstleistungen über Plattformen erbringen, auf die im Arbeitsprogramm der Kommission für 2021 Bezug genommen wird. Solche Personen sollten grundsätzlich nicht als Nutzer im Sinne dieser Verordnung gelten. Solche Systeme können während des gesamten Einstellungsverfahrens und bei der Bewertung, Beförderung oder Nichtbeförderung von Personen in Arbeitsverhältnissen historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung. KI-Systeme zur Überwachung der Leistung und des Verhaltens dieser Personen können sich auch auf ihre Rechte auf Datenschutz und Privatsphäre auswirken. In dieser Hinsicht sollten besondere Anforderungen an die Transparenz, die Information und die menschliche Aufsicht gelten. Gewerkschaften und Arbeitnehmervertreter sollten informiert werden und Zugang zu allen einschlägigen Unterlagen haben, die im Rahmen dieser Verordnung für Hochrisiko-KI-Systeme erstellt werden, die bei ihrer Arbeit oder an ihrem Arbeitsplatz eingesetzt oder verwendet werden.

Änderungsantrag  18

 

Vorschlag für eine Verordnung

Erwägung 70

 

Vorschlag der Kommission

Geänderter Text

(70) Bestimmte KI-Systeme, die mit natürlichen Personen interagieren oder Inhalte erzeugen sollen, können unabhängig davon, ob sie als hochriskant eingestuft werden, ein besonderes Risiko in Bezug auf Identitätsbetrug oder Täuschung bergen. Unter bestimmten Umständen sollte die Verwendung solcher Systeme daher – unbeschadet der Anforderungen an und Verpflichtungen für Hochrisiko-KI-Systeme – besonderen Transparenzpflichten unterliegen. Insbesondere sollte natürlichen Personen mitgeteilt werden, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Darüber hinaus sollten natürliche Personen informiert werden, wenn sie einem Emotionserkennungssystem oder einem System zur biometrischen Kategorisierung ausgesetzt sind. Diese Informationen und Mitteilungen sollten für Menschen mit Behinderungen in entsprechend barrierefrei zugänglicher Form bereitgestellt werden. Darüber hinaus sollten Nutzer, die ein KI-System zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten verwenden, die wirklichen Personen, Orten oder Ereignissen merklich ähneln und einer Person fälschlicherweise echt erscheinen würden, offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, indem sie die Ergebnisse künstlicher Intelligenz entsprechend kennzeichnen und auf ihren künstlichen Ursprung hinweisen.

(70) Bestimmte KI-Systeme, die verwendet werden, um mit natürlichen Personen zu interagieren oder Inhalte zu erzeugen, können unabhängig davon, ob sie als hochriskant eingestuft werden, ein besonderes Risiko in Bezug auf Identitätsbetrug oder Täuschung bergen. Unter bestimmten Umständen sollte die Verwendung solcher Systeme daher – unbeschadet der Anforderungen an und Verpflichtungen für Hochrisiko-KI-Systeme – besonderen Transparenzpflichten unterliegen. Insbesondere sollte natürlichen Personen mitgeteilt werden, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich oder die entsprechenden Inhalte werden erkennbar als Teil eines kreativen, künstlerischen oder fiktionalen Filmwerks genutzt. Darüber hinaus sollten natürliche Personen informiert werden, wenn sie einem Emotionserkennungssystem oder einem System zur biometrischen Kategorisierung ausgesetzt sind. Diese Informationen und Mitteilungen, die einen rechtlichen Hinweis enthalten sollten, sollten für Kinder, ältere Menschen, Migranten und Menschen mit Behinderungen in entsprechend barrierefrei zugänglicher Form bereitgestellt werden. Darüber hinaus sollten Nutzer, die ein KI-System zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten, Texte oder handschriftliche Inhalte verwenden, die wirklichen Personen, Orten oder Ereignissen merklich ähneln und einer Person fälschlicherweise echt erscheinen würden, klar offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, indem sie die Ergebnisse künstlicher Intelligenz entsprechend kennzeichnen und auf ihren künstlichen Ursprung hinweisen.

 

Änderungsantrag  19

Vorschlag für eine Verordnung

Erwägung 73

 

Vorschlag der Kommission

Geänderter Text

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Initiativen zum Thema KI-Kompetenz sowie Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.

 

Änderungsantrag  20

Vorschlag für eine Verordnung

Erwägung 74

 

Vorschlag der Kommission

Geänderter Text

(74) Um die Risiken bei der Durchführung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern und notifizierten Stellen die Einhaltung ihrer Verpflichtungen aus dieser Verordnung zu erleichtern, sollten die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden, möglichst zur Durchführung dieser Verordnung beitragen. Sie können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen.

(74) Um die Risiken bei der Durchführung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern und notifizierten Stellen die Einhaltung ihrer Verpflichtungen aus dieser Verordnung zu erleichtern, sollten die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden, möglichst zur Durchführung dieser Verordnung beitragen. Sie können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen. Es ist erforderlich, dass die Kommission auch ein gesamteuropäisches Netz von Universitäten und Forschern mit Schwerpunkt auf KI für eine verstärkte Untersuchung und Erforschung der Auswirkungen von KI schafft und den Aktionsplan für digitale Bildung aktualisiert, der in der Mitteilung der Kommission vom 30. September 2020 mit dem Titel „Aktionsplan für digitale Bildung 2021–2027 – Neuaufstellung des Bildungswesens für das digitale Zeitalter“ festgelegt wurde, um KI- und Robotik-Innovationen in die Bildung zu integrieren.

 

Änderungsantrag  21

Vorschlag für eine Verordnung

Erwägung 76

 

Vorschlag der Kommission

Geänderter Text

(76) Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschlägen oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz beraten und unterstützen.

(76) Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschläge oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz fachlich beraten und unterstützen sowie die Herausforderungen, die sich aus der rasanten Entwicklung der KI-Technologien ergeben, angehen.

 

Änderungsantrag  22

Vorschlag für eine Verordnung

Erwägung 83

 

Vorschlag der Kommission

Geänderter Text

(83) Zur Gewährleistung einer vertrauensvollen und konstruktiven Zusammenarbeit der zuständigen Behörden auf Ebene der Union und der Mitgliedstaaten, sollten alle an der Anwendung dieser Verordnung beteiligten Parteien die Vertraulichkeit der im Rahmen der Durchführung ihrer Tätigkeiten erlangten Informationen und Daten wahren.

(83) Zur Gewährleistung einer vertrauensvollen und konstruktiven Zusammenarbeit der zuständigen Behörden auf Ebene der Union und der Mitgliedstaaten, sollten alle an der Anwendung dieser Verordnung beteiligten Parteien die Vertraulichkeit der im Rahmen der Durchführung ihrer Tätigkeiten erlangten Informationen und Daten wahren. Es ist angebracht, neue gemeinsame europäische Leitlinien und Normen festzulegen, um die Privatsphäre zu schützen und gleichzeitig die verfügbaren Daten wirksam nutzen zu können.

 

Änderungsantrag  23

 

Vorschlag für eine Verordnung

Erwägung 85

 

Vorschlag der Kommission

Geänderter Text

(85) Damit der Rechtsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der in Anhang I genannten Techniken und Konzepte für die Einstufung von KI-Systemen, der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der in Anhang III aufgeführten Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation in Anhang IV, des Inhalts der EU-Konformitätserklärung in Anhang V, der Bestimmungen über die Konformitätsbewertungsverfahren in den Anhängen VI und VII und der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme zu erlassen, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung58 niedergelegt wurden. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.

(85) Damit der Rechtsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der in Anhang I genannten Techniken und Konzepte für die Einstufung von KI-Systemen, der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der in Anhang III aufgeführten Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation in Anhang IV, des Inhalts der EU-Konformitätserklärung in Anhang V, der Bestimmungen über die Konformitätsbewertungsverfahren in den Anhängen VI und VII und der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme zu erlassen, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung58 niedergelegt wurden. An solchen Konsultationen sollten qualifizierte Fachleute aus verschiedenen Bereichen der Gesellschaft beteiligt sein, darunter Vertreter der Privatwirtschaft, Forscher und Wissenschaftler, Vertreter aus dem Bildungswesen, Medien und Kultur, Gewerkschaften, Verbraucher-, Eltern- und Datenschutzorganisationen, die über die für diese Aufgabe relevanten Fähigkeiten und Kenntnisse verfügen. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.

__________________

__________________

58 ABl. L 123 vom 12.5.2016, S. 1.

58 ABl. L 123 vom 12.5.2016, S. 1.

 

Änderungsantrag  24

Vorschlag für eine Verordnung

Erwägung 86 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(86a) Angesichts der raschen technologischen Entwicklungen und des erforderlichen technischen Fachwissens für die Bewertung von Hochrisiko-KI-Systemen sollten die Befugnisübertragung und die Durchführungsbefugnisse der Kommission so flexibel wie möglich ausgeübt werden. Die Kommission sollte Anhang III regelmäßig und unverzüglich, jedoch mindestens alle sechs Monate, überprüfen und dabei die einschlägigen Interessenträger konsultieren, darunter Ethiksachverständige, Anthropologen, Soziologen, Fachleute auf dem Gebiet der geistigen Gesundheit und andere einschlägige Wissenschaftler und Forscher sowie Elternverbände.

 

Änderungsantrag  25

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) harmonisierte Transparenzvorschriften für KI-Systeme, die mit natürlichen Personen interagieren sollen, für KI-Systeme zur Emotionserkennung und zur biometrischen Kategorisierung sowie für KI-Systeme, die zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten verwendet werden;

c) harmonisierte Transparenzvorschriften für KI-Systeme;

Änderungsantrag  26

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Durch diese Verordnung darf die akademische Forschung oder die Entwicklung von KI-Systemen und ihren Ergebnissen zum Zweck der akademischen Forschung weder beeinträchtigt noch untergraben werden.

Änderungsantrag  27

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 4

 

Vorschlag der Kommission

Geänderter Text

4. „Nutzer“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet;

4. „Nutzer“ eine natürliche oder juristische Person, Behörde, Einrichtung der allgemeinen und beruflichen Bildung, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet;

 

Änderungsantrag  28

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 35

 

Vorschlag der Kommission

Geänderter Text

35. „System zur biometrischen Kategorisierung“ ein KI-System, das dem Zweck dient, natürliche Personen auf der Grundlage ihrer biometrischen Daten bestimmten Kategorien wie Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierung, ethnische Herkunft oder sexuelle oder politische Ausrichtung zuzuordnen;

35. „System zur biometrischen Kategorisierung“ ein KI-System, das dem Zweck dient, natürliche Personen auf der Grundlage ihrer biometrischen oder anderen physischen, physiologischen oder verhaltenstypischen Daten bestimmten Kategorien wie Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierung, ethnische Herkunft oder sexuelle oder politische Ausrichtung zuzuordnen;

 

Änderungsantrag  29

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 39

 

Vorschlag der Kommission

Geänderter Text

39. „öffentlich zugänglicher Raum“ einen der Öffentlichkeit zugänglichen physischen Ort, unabhängig davon, ob dafür bestimmte Zugangsbedingungen gelten;

39. „öffentlich zugänglicher Raum“ einen der Öffentlichkeit zugänglichen Ort, unabhängig davon, ob dafür bestimmte Zugangsbedingungen gelten;

 

Änderungsantrag  30

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) den Tod oder die schwere gesundheitliche Schädigung einer Person, schwere Sach- oder Umweltschäden,

a) den Tod oder die schwere gesundheitliche Schädigung oder schwere Beeinträchtigung der Grundrechte einer Person, schwere Sach- oder Umweltschäden oder die schwere Schädigung der Demokratie oder der Rechtsstaatlichkeit,

 

Änderungsantrag  31

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44a. „Einrichtungen der allgemeinen und beruflichen Bildung“ Bildungsanbieter – unabhängig vom Alter der Menschen, die dort eine allgemeine oder berufliche Bildung erlangen –, einschließlich Vorschulen, Kinderbetreuungseinrichtungen, Grundschulen, weiterführende Schulen, Einrichtungen des tertiären Bildungssektors, Einrichtungen der beruflichen Aus- und Weiterbildung und alle Arten von Einrichtungen des lebenslangen Lernens;

 

Änderungsantrag  32

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44b. „Kulturinstitutionen“ Einrichtungen wie Bibliotheken, Museen, Theater, Konzerthallen, Ausstellungszentren, architektonische Ensembles und kulturelle Mehrzweckhäuser sowie deren virtuelle Dependancen, die kulturelle Bildung und demokratischen Austausch, Forschung und Auseinandersetzung mit Kulturerbe organisieren;

 

Änderungsantrag  33

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44c. „Deepfake“ bezeichnet manipulierte oder synthetische Ton-, Bild- oder audiovisuelle Inhalte, textuelle oder handschriftliche Inhalte von Personen, wobei der Anschein erweckt wird, dass die Inhalte authentisch und wahrheitsgetreu seien;

Änderungsantrag  34

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44d. „KI-Kompetenz“ die Fähigkeiten, die Kenntnisse und das Verständnis im Hinblick auf KI-Systeme.

 

Änderungsantrag  35

Vorschlag für eine Verordnung

Artikel 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 4a

 

Vertrauenswürdige KI

 

(1) Alle KI-Systeme in der Union werden unter uneingeschränkter Achtung der Charta der Grundrechte der Europäischen Union (im Folgenden „Charta“) entwickelt, eingesetzt und genutzt.

 

(2) Zur Förderung einer vertrauenswürdigen KI in der Union und unbeschadet der in Titel III festgelegten Anforderungen an Hochrisiko-KI-Systeme werden alle KI-Systeme wie folgt entwickelt, eingesetzt und genutzt:

 

a) auf rechtmäßige, faire und transparente Weise („Grundsatz der Rechtmäßigkeit, Fairness und Transparenz“);

 

b) in einer Weise, bei der sichergestellt ist, dass natürliche Personen stets in der Lage sind, fundierte Entscheidungen über derartige Systeme zu treffen, und dass diese niemals die menschliche Autonomie beeinträchtigen oder außer Kraft setzen („Grundsatz des menschlichen Handeln und der menschlichen Aufsicht“);

 

c) in einer Weise, bei der ihre sichere, genaue und zuverlässige Leistung sichergestellt ist, mit integrierten Schutzmechanismen zur Verhinderung von individuellen oder kollektiven Schäden („Grundsatz der Sicherheit, Genauigkeit, Zuverlässigkeit und Robustheit“);

 

d) in einer Weise, bei der der Schutz der Privatsphäre und der Datenschutz sichergestellt ist („Grundsatz des Datenschutzes“);

 

e) in einer Weise, bei der der Integrität und Qualität der Daten, auch im Hinblick auf den Zugang, Vorrang eingeräumt wird („Grundsatz der Daten-Governance“);

 

f) auf nachvollziehbare, überprüfbare und erklärbare Weise, bei der Verantwortung und Rechenschaftspflicht für ihre Ergebnisse sichergestellt und Abhilfemaßnahmen unterstützt werden („Grundsatz der Rückverfolgbarkeit, Überprüfbarkeit, Erklärbarkeit und Rechenschaftspflicht“);

 

g) in einer Weise, bei der Personen oder Personengruppen nicht aufgrund unfairer Voreingenommenheit diskriminiert werden und die zu diesem Zweck die Beteiligung und den Beitrag einschlägiger Interessenträger umfasst („Grundsatz der Nichtdiskriminierung und Vielfalt“);

 

h) auf ökologisch nachhaltige Weise, bei der ihr ökologischer Fußabdruck minimiert wird, auch im Hinblick auf die Gewinnung und den Verbrauch natürlicher Ressourcen („Grundsatz der ökologischen Nachhaltigkeit“);

 

i) auf sozial verantwortliche Weise, bei der negative gesellschaftliche Auswirkungen minimiert werden, insbesondere im Hinblick auf soziale und geschlechtsspezifische Ungleichheiten und demokratische Prozesse („Grundsatz der sozialen Verantwortung“).

 

Änderungsantrag  36

 

Vorschlag für eine Verordnung

Artikel 4 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 4b

 

KI-Kompetenz

 

(1) Bei der Durchführung dieser Verordnung fördern die Union und die Mitgliedstaaten Maßnahmen und Instrumente für die Entwicklung eines ausreichenden Niveaus an KI-Kompetenz in allen Sektoren und Gruppen von betroffenen Betreibern, unter anderem durch Aus- und Weiterbildungs-, Qualifizierungs- und Umschulungsprogramme bei gleichzeitiger Sicherstellung eines angemessenen Geschlechter- und Altersgleichgewichts, um eine demokratische Kontrolle der KI-Systeme zu ermöglichen.

 

(2) Anbieter und Nutzer von KI-Systemen fördern Instrumente und ergreifen Maßnahmen, um ein ausreichendes Niveau an KI-Kompetenz ihres Personals und anderer Personen, die in ihrem Namen mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, sicherzustellen, wobei ihr technisches Wissen, ihre Erfahrung, ihre Aus- und Weiterbildung und die Umgebung, in der die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, berücksichtigt werden.

 

(3) Solche Instrumente und Maßnahmen zur Kompetenzsteigerung bestehen insbesondere darin, grundlegende Konzepte und Fähigkeiten über KI-Systeme und ihre Funktionsweise zu vermitteln und zu erlernen, einschließlich der verschiedenen Arten von Produkten und Verwendungszwecke, ihrer Risiken und Vorteile sowie der Schwere des Schadens, den sie verursachen können, und der Wahrscheinlichkeit ihres Auftretens.

 

(4) Das Niveau an KI-Kompetenz wird als ausreichend betrachtet, wenn Entwickler, Betreiber und Nutzer in der Lage sind, die Anforderungen gemäß der vorliegenden Verordnung an vertrauenswürdige KI in vollem Umfang zu erfüllen und von ihr zu profitieren.

 

Änderungsantrag  37

Vorschlag für eine Verordnung

Artikel 6 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Zusätzlich zu den in Absatz 1 genannten Hochrisiko-KI-Systemen gelten die in Anhang III genannten KI-Systeme ebenfalls als hochriskant.

(2) Zusätzlich zu den in Absatz 1 genannten Hochrisiko-KI-Systemen gelten die in Anhang III genannten KI-Systeme aufgrund der Gefahr einer Beeinträchtigung der Gesundheit, der Sicherheit, der Umwelt, der Grundrechte oder der Demokratie und der Rechtsstaatlichkeit ebenfalls als hochriskant.

 

Änderungsantrag  38

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) die KI-Systeme sollen in einem der in Anhang III Nummern 1 bis 8 aufgeführten Bereiche eingesetzt werden;

a) die KI-Systeme sollen in einem der in Anhang III aufgeführten Bereiche eingesetzt werden;

Änderungsantrag  39

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) die KI-Systeme bergen ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder nachteiliger Auswirkungen auf die Grundrechte, das im Hinblick auf die Schwere und die Wahrscheinlichkeit des Eintretens dem Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt.

b) die KI-Systeme bergen ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder nachteiliger Auswirkungen auf die Grundrechte, die Demokratie und die Rechtsstaatlichkeit oder die Umwelt, das im Hinblick auf die Schwere und die Wahrscheinlichkeit des Eintretens dem Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt.

Änderungsantrag  40

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Bewertung für die Zwecke des Absatzes 1, ob ein KI-System ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder ein Risiko nachteiliger Auswirkungen auf die Grundrechte birgt, das dem Risiko der Schädigung oder Beeinträchtigung gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt, berücksichtigt die Kommission folgende Kriterien:

(2) Bei der Bewertung für die Zwecke des Absatzes 1, ob ein KI-System ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder ein Risiko nachteiliger Auswirkungen auf die Grundrechte, die Demokratie und die Rechtsstaatlichkeit oder die Umwelt birgt, das dem Risiko der Schädigung oder Beeinträchtigung gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt, berücksichtigt die Kommission folgende Kriterien:

Änderungsantrag  41

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Die Kommission führt die in Absatz 2 genannte Bewertung jährlich gemäß den in Artikel 73 festgelegten Konsultationsbedingungen durch.

 

Änderungsantrag  42

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 – Unterabsatz 2 – Buchstabe d a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

da) Bereitstellung eines ausreichenden Niveaus an KI-Kompetenz;

 

Änderungsantrag  43

Vorschlag für eine Verordnung

Artikel 9 – Absatz 8

 

Vorschlag der Kommission

Geänderter Text

(8) Bei der Umsetzung des in den Absätzen 1 bis 7 beschriebenen Risikomanagementsystems ist insbesondere zu berücksichtigen, ob das Hochrisiko-KI-System wahrscheinlich für Kinder zugänglich ist oder Auswirkungen auf Kinder hat.

(8) Bei der Umsetzung des in den Absätzen 1 bis 7 beschriebenen Risikomanagementsystems ist insbesondere zu berücksichtigen, ob das Hochrisiko-KI-System wahrscheinlich für Kinder, ältere Menschen, Migranten oder andere schutzbedürftige Gruppen zugänglich ist oder Auswirkungen auf sie hat.

 

Änderungsantrag  44

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias);

f) eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias) – insbesondere auf Abweichungen, die die Gesundheit und Sicherheit von Menschen beeinträchtigen oder zu Diskriminierung führen könnten;

 

Änderungsantrag  45

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe g a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ga) den Zweck und die Umgebung, in der das System verwendet werden soll;

 

Änderungsantrag  46

Vorschlag für eine Verordnung

Artikel 13 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Nutzer die Ergebnisse des Systems angemessen interpretieren und verwenden können. Die Transparenz wird auf eine geeignete Art und in einem angemessenen Maß gewährleistet, damit die Nutzer und Anbieter ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Anbieter, Nutzer und andere relevante Akteure die Funktionsweise und Ergebnisse des Systems einfach interpretieren und auf der Grundlage von Entscheidungen in voller Kenntnis der Sachlage verwenden können, damit sie ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.

 

Änderungsantrag  47

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Um den in diesem Artikel festgelegten Verpflichtungen nachzukommen, sorgen die Anbieter und die Nutzer im Einklang mit Artikel 4b für ein ausreichendes Niveau an KI-Kompetenz.

 

Änderungsantrag  48

Vorschlag für eine Verordnung

Artikel 14 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Um den in diesem Artikel festgelegten Verpflichtungen nachzukommen, sorgen die Anbieter und die Nutzer im Einklang mit Artikel 4b für ein ausreichendes Niveau an KI-Kompetenz.

 

Änderungsantrag  49

Vorschlag für eine Verordnung

Artikel 29 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Um den in diesem Artikel festgelegten Verpflichtungen nachzukommen und um rechtfertigen zu können, warum diese Verpflichtungen von ihnen möglicherweise nicht eingehalten werden, müssen die Nutzer von Hochrisiko-KI-Systemen ein ausreichendes Niveau an KI-Kompetenz gemäß Artikel 4b sicherstellen.

 

Änderungsantrag  50

Vorschlag für eine Verordnung

Artikel 41 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Ausarbeitung der in Absatz 1 genannten gemeinsamen Spezifikationen holt die Kommission die Stellungnahmen der einschlägigen Stellen oder Expertengruppen ein, die nach den jeweiligen sektorspezifischen Rechtsvorschriften der Union eingerichtet wurden.

(2) Bei der Ausarbeitung der in Absatz 1 genannten gemeinsamen Spezifikationen holt die Kommission die Stellungnahmen der einschlägigen Akteure, einschließlich der Vertreter der Wirtschaft, der KMU sowie anderer einschlägiger Stellen oder Expertengruppen, ein, die nach den jeweiligen sektorspezifischen Rechtsvorschriften der Union eingerichtet wurden.

 

Änderungsantrag  51

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen eingesetzt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.

Änderungsantrag  52

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.

(2) Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen rechtzeitig, klar und verständlich über den Betrieb des Systems. Diese Informationen umfassen gegebenenfalls auch die Rechte und Verfahren, die es natürlichen Personen ermöglichen, gegen die Anwendung solcher KI-Systeme auf sie Einspruch zu erheben. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.

Änderungsantrag  53

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.

Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte, textuelle oder handschriftliche Inhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten, Texten, Handschriften oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen auf angemessene, klare, wiederholte und sichtbare Weise offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.

Änderungsantrag  54

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Unterabsatz 1 gilt jedoch nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.

Unterabsatz 1 gilt jedoch nicht, wenn die Nutzung Teil eines offensichtlich künstlerischen, kreativen oder fiktionalen Filmwerks oder eines analogen Werks ist oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.

Änderungsantrag  55

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Anbieter und Nutzer von KI-Systemen, die Nachrichten oder kreative und kulturelle Inhalte empfehlen, verbreiten und bestellen, müssen in angemessener, leicht zugänglicher, klarer und sichtbarer Weise die wichtigsten Parameter offenlegen, die für die Moderation von Inhalten und personalisierten Vorschlägen verwendet werden. Diese Informationen müssen einen rechtlichen Hinweis umfassen.

Änderungsantrag  56

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3b) Die in diesem Artikel genannten Informationen werden den natürlichen Personen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung zeitnah, klar und sichtbar bereitgestellt. Die Zugänglichkeit dieser Informationen muss für den Fall sichergestellt sein, dass es sich bei den betroffenen natürlichen Personen um Personen mit Behinderungen, Kinder oder Angehörige schutzbedürftiger Gruppen handelt. Nach Möglichkeit sind ergänzende Verfahren für die Intervention sowie die Meldung und Kennzeichnung von Inhalten seitens der betroffenen natürlichen Personen unter Berücksichtigung des allgemein anerkannten Stands der Technik und der einschlägigen harmonisierten Normen und gemeinsamen Spezifikationen vorzusehen.

 

Änderungsantrag  57

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) Arbeit zur Förderung der Einführung von KI in der Union, insbesondere bei KMU;

 

Änderungsantrag  58

Vorschlag für eine Verordnung

Artikel 57 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, und dem Europäischen Datenschutzbeauftragten. Weitere nationale Behörden können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind.

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, und dem Europäischen Datenschutzbeauftragten. Weitere nationale oder internationale Behörden und relevante Interessenträger, auch aus der Privatwirtschaft, werden zu den Sitzungen eingeladen, wenn die erörterten Fragen für sie von Belang sind.

 

Änderungsantrag  59

Vorschlag für eine Verordnung

Artikel 57 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Der Ausschuss kann externe Sachverständige und Beobachter zu seinen Sitzungen einladen und einen Meinungsaustausch mit interessierten Dritten führen, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Verwaltungsrat und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union fördern.

(4) Der Ausschuss lädt gegebenenfalls externe Sachverständige und Beobachter zu seinen Sitzungen ein und führt einen Meinungsaustausch mit interessierten Dritten, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Verwaltungsrat und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union – einschließlich der hochrangigen Expertengruppe für künstliche Intelligenz – fördern.

 

Änderungsantrag  60

Vorschlag für eine Verordnung

Artikel 69 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Verhaltenskodizes können von einzelnen KI-System-Anbietern oder von Interessenvertretungen dieser Anbieter oder von beiden aufgestellt werden, auch unter Einbeziehung von Nutzern und Interessenträgern sowie deren Interessenvertretungen. Verhaltenskodizes können sich auf mehrere KI-Systeme erstrecken, um ähnlichen Zweckbestimmungen der jeweiligen Systeme Rechnung zu tragen.

(3) Verhaltenskodizes können von einzelnen Anbietern von KI-Systemen oder von deren Interessenvertretungen oder von beiden aufgestellt werden, auch unter Einbeziehung von Nutzern und Interessenträgern sowie deren Interessenvertretungen, darunter insbesondere Gewerkschaften und Verbraucherorganisationen. Verhaltenskodizes können sich auf mehrere KI-Systeme erstrecken, um ähnlichen Zweckbestimmungen der jeweiligen Systeme Rechnung zu tragen.

 

Änderungsantrag  61

Vorschlag für eine Verordnung

Artikel 69 – Absatz 3 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3b) Um den in diesem Artikel festgelegten Verpflichtungen nachzukommen, sorgen die Anbieter und die Nutzer im Einklang mit Artikel 4b für ein ausreichendes Niveau an KI-Kompetenz.

 

Änderungsantrag  62

Vorschlag für eine Verordnung

Artikel 71 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Entsprechend den Vorgaben dieser Verordnung erlassen die Mitgliedstaaten Vorschriften für Sanktionen, beispielsweise in Form von Geldbußen, die bei Verstößen gegen diese Verordnung Anwendung finden, und ergreifen alle Maßnahmen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. Die vorgesehenen Sanktionen müssen wirksam, verhältnismäßig und abschreckend sein. Sie berücksichtigen insbesondere die Interessen von Kleinanbietern und Startups sowie deren wirtschaftliches Überleben.

(1) Entsprechend den Vorgaben dieser Verordnung erlassen die Mitgliedstaaten Vorschriften für Sanktionen, beispielsweise in Form von Geldbußen, die bei Verstößen gegen diese Verordnung Anwendung finden, und ergreifen alle Maßnahmen, die für deren ordnungsgemäße und wirksame Durchsetzung notwendig sind. Die vorgesehenen Sanktionen müssen wirksam, verhältnismäßig und abschreckend sein. Sie berücksichtigen insbesondere die Interessen und die Marktstellung von Kleinanbietern und Startups sowie deren wirtschaftliches Überleben.

 

Änderungsantrag  63

 

Vorschlag für eine Verordnung

Artikel 73 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Vor dem Erlass eines delegierten Rechtsakts konsultiert die Kommission die einschlägigen Organe und Interessenträger im Einklang mit den in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung enthaltenen Grundsätzen.

 

Änderungsantrag  64

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß als Sicherheitskomponenten in der Verwaltung und im Betrieb des Straßenverkehrs sowie in der Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen;

a) KI-Systeme, die bestimmungsgemäß als Sicherheitskomponenten in der Verwaltung und im Betrieb des Straßenverkehrs sowie in der Wasser-, Gas-, Wärme-, Telekommunikations- und Stromversorgung verwendet werden sollen;

 

Änderungsantrag  65

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 3 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

3. Allgemeine und berufliche Bildung:

(Betrifft nicht die deutsche Fassung.) 

Änderungsantrag  66

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 3 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß für Entscheidungen über den Zugang oder die Zuweisung natürlicher Personen zu Einrichtungen der allgemeinen und beruflichen Bildung verwendet werden sollen;

(Betrifft nicht die deutsche Fassung.) 

Änderungsantrag  67

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 3 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) KI-Systeme, die bestimmungsgemäß für die Bewertung von Schülern in Einrichtungen der allgemeinen und beruflichen Bildung und für die Bewertung der Teilnehmer an üblicherweise für die Zulassung zu Bildungseinrichtungen erforderlichen Tests verwendet werden sollen;

(Betrifft nicht die deutsche Fassung.) 

Änderungsantrag  68

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 3 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) KI-Systeme, die bestimmungsgemäß für Entscheidungen über den zu absolvierenden Studiengang oder das Fachgebiet von Studierenden an Einrichtungen der allgemeinen und beruflichen Bildung verwendet werden sollen;

Änderungsantrag  69

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 3 – Buchstabe b b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bb) KI-Systeme, die bestimmungsgemäß zur Überwachung und Erkennung von unzulässigem Verhalten von Schülern und Studierenden bei Prüfungen von Einrichtungen der allgemeinen und beruflichen Bildung verwendet werden sollen;

Änderungsantrag  70

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 4 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

4. Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit:

4. Beschäftigung und Beschäftigungsförderung, Personalmanagement und Zugang zur Selbstständigkeit:

 

Änderungsantrag  71

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 4 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) KI-Systeme, die bestimmungsgemäß für Entscheidungen über Beförderungen und über Kündigungen von Arbeitsvertragsverhältnissen, für die Aufgabenzuweisung sowie für die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beschäftigungsverhältnissen verwendet werden sollen;

b) KI-Systeme, die bestimmungsgemäß für Entscheidungen über Einstellungen, Beförderungen und über Kündigungen von Arbeitsverhältnissen, für die Aufgabenzuweisung, für die Überwachung der Einhaltung von Regelungen am Arbeitsplatz sowie für die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beschäftigungsverhältnissen verwendet werden sollen;


 

ANHANG: LISTE DER EINRICHTUNGEN UND PERSONEN, VON DENEN DER VERFASSER DER STELLUNGNAHME BEITRÄGE ERHALTEN HAT

Die folgende Liste wurde auf rein freiwilliger Grundlage und unter alleiniger Verantwortung des Verfassers der Stellungnahme angefertigt. Der Verfasser der Stellungnahme erhielt bei der Vorbereitung der Stellungnahme bis zu dessen Annahme im Ausschuss Informationen von folgenden Einrichtungen oder Personen:

Organisation und/oder Person

AccessNow

Baptiste Caramiaux, Forscher bei der Forschungsorganisation CNRS, Sorbonne Université in Paris

BEUC

Defenddigitalme

EDRi

Europäisches Behindertenforum

Huawei

Internationaler Verband der bibliothekarischen Vereine und Institutionen

Joanna Bryson, Professorin für Ethik und Technologie, Hertie School

LIBER Europe

Maldita.es

Martin Senftleben, Professor für Recht des geistigen Eigentums, Universität von Amsterdam

Meaning Processing Ltd.

Saidot Ltd.

Scio.cz

 

 

 

 

 

 

 


VERFAHREN DES MITBERATENDEN AUSSCHUSSES

Titel

Harmonisierte Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und Änderung bestimmter Rechtsakte der Union

Bezugsdokumente – Verfahrensnummer

COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)

Federführende Ausschüsse

 Datum der Bekanntgabe im Plenum

IMCO

7.6.2021

LIBE

7.6.2021

 

 

Stellungnahme von

 Datum der Bekanntgabe im Plenum

CULT

7.6.2021

Assoziierte Ausschüsse – Datum der Bekanntgabe im Plenum

16.12.2021

Verfasser(in) der Stellungnahme

 Datum der Benennung

Marcel Kolaja

13.7.2021

Artikel 58 – Gemeinsames Ausschussverfahren

 Datum der Bekanntgabe im Plenum

 

 

16.12.2021

Prüfung im Ausschuss

15.3.2022

 

 

 

Datum der Annahme

15.6.2022

 

 

 

Ergebnis der Schlussabstimmung

+:

–:

0:

24

0

0

Zum Zeitpunkt der Schlussabstimmung anwesende Mitglieder

Asim Ademov, Ilana Cicurel, Tomasz Frankowski, Romeo Franz, Catherine Griset, Sylvie Guillaume, Hannes Heide, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Peter Pollák, Diana Riba i Giner, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Theodoros Zagorakis, Milan Zver

Zum Zeitpunkt der Schlussabstimmung anwesende Stellvertreter

Loucas Fourlas, Ibán García Del Blanco, Marcel Kolaja, Domènec Ruiz Devesa

Zum Zeitpunkt der Schlussabstimmung anwesende Stellv. (Art. 209 Abs. 7)

Karen Melchior

 


 

NAMENTLICHE SCHLUSSABSTIMMUNG IM MITBERATENDEN AUSSCHUSS

24

+

ECR

Dace Melbārde, Andrey Slabakov

ID

Catherine Griset

PPE

Asim Ademov, Loucas Fourlas, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Theodoros Zagorakis, Milan Zver

RENEW

Ilana Cicurel, Karen Melchior

S&D

Ibán García Del Blanco, Sylvie Guillaume, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Domènec Ruiz Devesa, Massimiliano Smeriglio

THE LEFT

Niyazi Kizilyürek

VERTS/ALE

Romeo Franz, Marcel Kolaja, Diana Riba i Giner

 

0

-

 

 

 

0

0

 

 

 

Erklärung der benutzten Zeichen:

+ : dafür

- : dagegen

0 : Enthaltung

 

 


STELLUNGNAHME DES RECHTSAUSSCHUSSES (12.9.2022)

für den Ausschuss für Binnenmarkt und Verbraucherschutz und Ausschuss für bürgerliche Freiheiten, Justiz und Inneres

zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union

(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))

Verfasser der Stellungnahme: Axel Voss

 

 

ÄNDERUNGSANTRÄGE

Der Rechtsausschuss ersucht den Ausschuss für Binnenmarkt und Verbraucherschutz und den Ausschuss für bürgerliche Freiheiten, Justiz und Inneres als federführende Ausschüsse folgende Änderungsanträge zu berücksichtigen:

 

Änderungsantrag  1

 

Vorschlag für eine Verordnung

Erwägung 1

 

Vorschlag der Kommission

Geänderter Text

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union festgelegt wird. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit und der Grundrechte, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Grundsätzen und demokratischen Werten der Union festgelegt wird. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit und der Grundrechte, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

Änderungsantrag  2

 

Vorschlag für eine Verordnung

Erwägung 3

 

Vorschlag der Kommission

Geänderter Text

(3) Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, allgemeine und berufliche Bildung, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz sowie Klimaschutz und Anpassung an den Klimawandel.

(3) Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können, wenn sie im Einklang mit den einschlägigen allgemeinen Grundsätzen der Charta der Grundrechte der EU  und den Werten, auf die sich die Union gründet, entwickelt wurden. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, allgemeine und berufliche Bildung, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz sowie Klimaschutz und Anpassung an den Klimawandel.

Änderungsantrag  3

 

Vorschlag für eine Verordnung

Erwägung 4

 

Vorschlag der Kommission

Geänderter Text

(4) Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und öffentliche Interessen und Rechte schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein.

(4) Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und öffentliche Interessen und Rechte schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein und eine Person, eine Gruppe von Personen oder die Gesellschaft insgesamt betreffen.

Änderungsantrag  4

 

Vorschlag für eine Verordnung

Erwägung 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) Aufbauend auf den sieben zentralen Anforderungen, die von der hochrangigen Expertengruppe für künstliche Intelligenz festgelegt wurden, ist es wichtig, darauf hinzuweisen, dass KI-Systeme allgemeine Grundsätze einhalten sollten, mit denen ein auf den Menschen ausgerichteter Rahmen auf hoher Ebene geschaffen wird, der einen kohärenten, auf den Menschen ausgerichteten Ansatz für ethische und vertrauenswürdige KI im Einklang mit der Charta der Grundrechte der Europäischen Union und den Werten, auf denen die Union beruht, einschließlich des Schutzes der Grundrechte, der Handlungs- und Kontrollfähigkeit des Menschen, der technischen Robustheit und Sicherheit, des Schutzes der Privatsphäre und der Datenverwaltung, der Transparenz, der Nichtdiskriminierung und Fairness sowie des gesellschaftlichen und ökologischen Wohlergehens, fördert.

Änderungsantrag  5

 

Vorschlag für eine Verordnung

Erwägung 13

 

Vorschlag der Kommission

Geänderter Text

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit sowie die Grundrechte zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit, die Grundrechte und die Umwelt sicherzustellen, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“), dem europäischen Grünen Deal (im Folgenden der „grüne Deal“) und der Gemeinsamen Erklärung zu den digitalen Rechten und Grundsätzen der Union (im Folgenden die „Erklärung“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Verpflichtungen der Union vereinbar sein.

Änderungsantrag  6

 

Vorschlag für eine Verordnung

Erwägung 14 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(14a) Damit diese Verordnung wirksam ist, ist es von wesentlicher Bedeutung, das Problem der digitalen Kluft anzugehen, und sie sollte daher mit einer Politik der allgemeinen und beruflichen Bildung und der Sensibilisierung in Bezug auf diese Technologien einhergehen, damit ein ausreichendes Maß an KI-Kompetenz gewährleistet ist.

Änderungsantrag  7

 

Vorschlag für eine Verordnung

Erwägung 14 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(14b) Der Begriff „KI-Kompetenz“ bezieht sich auf Fähigkeiten, Kenntnisse und das Verständnis, die es Anbietern, Nutzern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme in Kenntnis der Sachlage einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden und dadurch ihre demokratische Kontrolle zu fördern. KI-Kompetenz sollten sich nicht auf das Lernen über Werkzeuge und Technologien beschränken, sondern auch darauf abzielen, Anbieter und Nutzer mit den Begriffen und Kompetenzen auszustatten, die erforderlich sind, um die Einhaltung und Durchsetzung dieser Verordnung sicherzustellen. Daher ist es notwendig, dass die Kommission, die Mitgliedstaaten sowie die Anbieter und Nutzer von KI-Systemen in Zusammenarbeit mit allen einschlägigen Interessenträgern die Entwicklung ausreichender KI-Kompetenzen bei Bürgern aller Altersgruppen, einschließlich Frauen und Mädchen, in allen Bereichen der Gesellschaft fördern und dass die diesbezüglichen Fortschritte aufmerksam verfolgt werden.

Änderungsantrag  8

 

Vorschlag für eine Verordnung

Erwägung 15

 

Vorschlag der Kommission

Geänderter Text

(15) Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten künstlicher Intelligenz kann diese Technik auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der Grundrechte in der Union, einschließlich des Rechts auf Nichtdiskriminierung, Datenschutz und Privatsphäre sowie der Rechte des Kindes.

(15) Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten künstlicher Intelligenz kann diese Technik auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der Grundrechte in der Union, einschließlich des Rechts auf Nichtdiskriminierung, Datenschutz und Privatsphäre, Gleichstellung der Geschlechter sowie der Rechte des Kindes.

Änderungsantrag  9

 

Vorschlag für eine Verordnung

Erwägung 16

 

Vorschlag der Kommission

Geänderter Text

(16) Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die dazu bestimmt sind, menschliches Verhalten nachteilig zu beeinflussen, und die zu physischen oder psychischen Schäden führen dürften, sollte verboten werden. Solche KI-Systeme setzen auf eine vom Einzelnen nicht zu erkennende unterschwellige Beeinflussung oder sollen die Schutzbedürftigkeit von Kindern und anderen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung beeinträchtigten Personen ausnutzen. Dies geschieht mit der Absicht, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person Schaden zufügt oder zufügen kann. Diese Absicht kann nicht vermutet werden, wenn die nachteilige Beeinflussung des menschlichen Verhaltens auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Nutzers liegen. Forschung zu legitimen Zwecken im Zusammenhang mit solchen KI-Systemen sollte durch das Verbot nicht unterdrückt werden, wenn diese Forschung nicht auf eine Verwendung des KI-Systems in Beziehungen zwischen Mensch und Maschine hinausläuft, durch die natürliche Personen geschädigt werden, und wenn diese Forschung im Einklang mit anerkannten ethischen Standards für die wissenschaftliche Forschung durchgeführt wird.

(16) Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die dazu bestimmt sind, menschliches Verhalten nachteilig zu beeinflussen, und die zu physischen oder psychischen Schäden führen dürften, sollte verboten werden. Solche KI-Systeme setzen auf eine vom Einzelnen nicht zu erkennende unterschwellige Beeinflussung oder sollen die Schutzbedürftigkeit von Kindern und anderen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung beeinträchtigten Personen ausnutzen. Dies geschieht mit der Absicht, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person Schaden zufügt oder zufügen kann. Diese Absicht kann nicht vermutet werden, wenn die nachteilige Beeinflussung des menschlichen Verhaltens auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Nutzers liegen. Forschung zu legitimen Zwecken im Zusammenhang mit solchen KI-Systemen sollte durch das Verbot nicht unterdrückt werden, wenn diese Forschung nicht auf eine Verwendung des KI-Systems in  nicht beaufsichtigten Beziehungen zwischen Mensch und Maschine hinausläuft, durch die natürliche Personen geschädigt werden, und wenn diese Forschung im Einklang mit anerkannten ethischen Standards für die wissenschaftliche Forschung durchgeführt wird. Erforderlichenfalls und im Einklang mit dieser Verordnung sollten die Mitgliedstaaten weitere Flexibilitätsmöglichkeiten einführen, um die Forschung und damit die europäischen Innovationskapazitäten zu fördern.

Änderungsantrag  10

 

Vorschlag für eine Verordnung

Erwägung 28

 

Vorschlag der Kommission

Geänderter Text

(28) KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Komponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein. Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, die Unschuldsvermutung und das Verteidigungsrecht sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen verursachen kann, ebenfalls Rechnung getragen werden.

(28) KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Komponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein. Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, die Bildung, der Verbraucherschutz, die Arbeitnehmerrechte, die Gleichstellung der Geschlechter, die Rechte von Menschen mit Behinderungen, das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, die Unschuldsvermutung und das Verteidigungsrecht, das Recht auf eine gute Verwaltung, das Recht auf den Schutz des geistigen Eigentums sowie die kulturelle Vielfalt. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen verursachen kann, ebenfalls Rechnung getragen werden.

Änderungsantrag  11

 

Vorschlag für eine Verordnung

Erwägung 47 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(47a) Solche Anforderungen an Transparenz und Nachvollziehbarkeit der KI-Entscheidungsfindung sollten auch dazu beitragen, den abschreckenden Auswirkungen digitaler Asymmetrie und sogenannter „dunkler Muster“ entgegenzuwirken, die auf Einzelpersonen und ihre Einwilligung nach Aufklärung abzielen.

Änderungsantrag  12

 

Vorschlag für eine Verordnung

Erwägung 48 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(48a) Die menschliche Aufsicht soll Zielen dienen, die auf den Menschen ausgerichtet sind. Die Personen, denen die menschliche Aufsicht übertragen wird, sollten eine angemessene Aus- und Weiterbildung in Bezug auf die Funktionsweise des KI-Systems, dessen Fähigkeit, Entscheidungen zu beeinflussen oder zu treffen, die möglichen schädlichen Auswirkungen, insbesondere auf die Grundrechte, und die Wahrscheinlichkeit ihres Auftretens erhalten. Die Personen, die für den Einsatz dieser Personen zuständig sind, sollten ihnen das dazu erforderliche Personal und psychologische Unterstützung zur Verfügung stellen, sowie die Autorität, diese Funktion wahrzunehmen.

Änderungsantrag  13

 

Vorschlag für eine Verordnung

Erwägung 57 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(57a) KI-Systeme, die in Verkehr gebracht wurden, aber bei denen ein weiteres Training erforderlich ist oder die Verwendung eines Modells benötigt wird, das nicht vom Anbieter bereitgestellt wird, sollten als KI-System mit allgemeinem Verwendungszweck betrachtet werden. Das Training dieser Systeme nach ihrem Inverkehrbringen sollte als Anpassung an einen bestimmten Zweck betrachtet werden.

Änderungsantrag  14

 

Vorschlag für eine Verordnung

Erwägung 57 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(57b) Lizenzen für quelloffene Software ermöglichen es den Nutzern, Software frei zu betreiben, zu kopieren, zu verbreiten, zu untersuchen, zu ändern und zu verbessern. Standardmäßig führt die Verwendung quelloffener Software auf diese Weise zu einer Haftung des Nutzers, während ein Anbieter, der quelloffene Software kommerziell im Rahmen eines Software-as-a-Service-Modells (SaaS) oder eines professionellen Dienstleistungsmodells bereitstellt, unter Umständen weiter haftet. Untersuchungen der Europäischen Kommission zeigen, dass quelloffene Software zwischen 65 Mrd. EUR und 95 Mrd. EUR zum BIP der Europäischen Union beiträgt und erhebliche Wachstumschancen für die Wirtschaft der Union bietet. Anbieter quelloffener Software sollten in der Lage sein, dasselbe Wirtschaftsmodell für KI-Systeme zu übernehmen. Daher sollten die Bestimmungen dieser Verordnung nicht für quelloffene KI-Systeme gelten, bis diese Systeme in Betrieb genommen werden. Um sicherzustellen, dass KI-Systeme nicht in Betrieb genommen werden können, ohne dass diese Verordnung eingehalten wird, sollten bei der Inbetriebnahme eines quelloffenen KI-Systems die mit den Anbietern verbundenen Verpflichtungen auf die Person übertragen werden, die das System in Betrieb nimmt.

Änderungsantrag  15

 

Vorschlag für eine Verordnung

Erwägung 73

 

Vorschlag der Kommission

Geänderter Text

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Initiativen zum Thema KI-Kompetenz sowie Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.

Änderungsantrag  16

 

Vorschlag für eine Verordnung

Erwägung 76

 

Vorschlag der Kommission

Geänderter Text

(76) Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschlägen oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz beraten und unterstützen.

(76) Um eine Fragmentierung zu vermeiden und ein optimales Funktionieren des Binnenmarkts zu gewährleisten, ist es von entscheidender Bedeutung, eine wirksame und harmonisierte Umsetzung dieser Verordnung zu gewährleisten. Zu diesem Zweck sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden, der mit einer Reihe von Beratungsaufgaben betraut wird und Stellungnahmen, Empfehlungen, Ratschlägen oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgibt, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz beraten und unterstützen. Eine solche Lösung könnte sich jedoch als nicht ausreichend erweisen, um ein vollständig kohärentes grenzüberschreitendes Handeln zu gewährleisten, weshalb die Kommission [innerhalb von drei Jahren nach dem Geltungsbeginn dieser Verordnung] verpflichtet sein sollte, zu prüfen, ob die Errichtung einer EU-Agentur erforderlich ist, um eine einheitliche Anwendung dieser Verordnung auf Unionsebene zu gewährleisten.

Änderungsantrag  17

 

Vorschlag für eine Verordnung

Erwägung 76 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(76a) Die Kommission sollte die hochrangige Expertengruppe wieder einsetzen oder ein ähnliches Gremium mit einer neuen und ausgewogenen Zusammensetzung aus einer gleichen Anzahl von Experten von KMU und Start-ups, großen Unternehmen, aus Wissenschaft und Forschung, Sozialpartnern sowie aus der Zivilgesellschaft einsetzen. Diese neue hochrangige Expertengruppe für vertrauenswürdige KI sollte nicht nur als beratendes Gremium für die Kommission, sondern auch für den Ausschuss fungieren. Der neuen hochrangigen Expertengruppe für vertrauenswürdige KI muss mindestens vierteljährlich Gelegenheit gegeben werden, ihr praktisches und technisches Fachwissen in einer Sondersitzung mit dem Ausschuss auszutauschen.

Änderungsantrag  18

 

Vorschlag für eine Verordnung

Erwägung 77

 

Vorschlag der Kommission

Geänderter Text

(77) Den Mitgliedstaaten kommt bei der Anwendung und Durchsetzung dieser Verordnung eine Schlüsselrolle zu. Dazu sollte jeder Mitgliedstaat eine oder mehrere zuständige nationale Behörden benennen, die die Anwendung und Umsetzung dieser Verordnung beaufsichtigen. Um die Effizienz der Organisation aufseiten der Mitgliedstaaten zu steigern und eine offizielle Kontaktstelle gegenüber der Öffentlichkeit und anderen Ansprechpartnern auf Ebene der Mitgliedstaaten und der Union einzurichten, sollte in jedem Mitgliedstaat eine nationale Behörde als nationale Aufsichtsbehörde benannt werden.

(77) Den Mitgliedstaaten kommt bei der Anwendung und Durchsetzung dieser Verordnung eine Schlüsselrolle zu. Dazu sollte jeder Mitgliedstaat eine oder mehrere zuständige nationale Behörden benennen, die die Anwendung und Umsetzung dieser Verordnung beaufsichtigen. Um die Effizienz der Organisation aufseiten der Mitgliedstaaten zu steigern und eine offizielle Kontaktstelle gegenüber der Öffentlichkeit und anderen Ansprechpartnern auf Ebene der Mitgliedstaaten und der Union einzurichten, sollte in jedem Mitgliedstaat eine nationale Behörde als nationale Aufsichtsbehörde benannt werden. Zur Erleichterung einer kohärenten und schlüssigen Durchführung dieser Verordnung sollten die nationalen Aufsichtsbehörden nicht nur mit dem Ausschuss, sondern auch untereinander umfassend und regelmäßig zusammenarbeiten, um den Austausch einschlägiger Informationen und bewährter Verfahren zu fördern. In diesem Zusammenhang und zumal es angesichts des derzeitigen Mangels an KI-Sachverständigen schwierig sein könnte, auf nationaler Ebene sicherzustellen, dass die Aufsichtsbehörden eine für die Wahrnehmung ihrer Aufgaben angemessene Personalausstattung erhalten, werden die Mitgliedstaaten auch nachdrücklich aufgefordert, die Möglichkeit der Schaffung transnationaler Einrichtungen zu prüfen, um eine gemeinsame Aufsicht über die Durchführung dieser Verordnung sicherzustellen.

Änderungsantrag  19

 

Vorschlag für eine Verordnung

Erwägung 80 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(80a) Natürliche oder juristische Personen, die von Entscheidungen betroffen sind, die von KI-Systemen getroffen werden und eine Rechtswirkung entfalten, die ihre Gesundheit, ihre Sicherheit, ihre Grundrechte, ihr sozioökonomisches Wohlergehen oder andere Rechte, die sich aus den in dieser Verordnung festgelegten Pflichten ergeben, beeinträchtigt, sollten Anspruch auf eine Erläuterung dieser Entscheidung haben. Eine solche Erklärung ist den betroffenen Personen zur Verfügung zu stellen, und daher sollten Anbieter und Nutzer bei der Abgabe einer solchen Erklärung gebührend berücksichtigen, dass das Fachwissen und die Kenntnisse des Durchschnittsverbrauchers oder -bürgers in Bezug auf KI-Systeme begrenzt und deutlich geringer sind als ihres. Zudem können einige KI-Systeme ihre Entscheidungen über die ursprünglichen Eingabedaten hinaus nicht erklären. Wenn KI-Systeme eine Erklärung liefern müssen, aber nicht können, sollten sie eindeutig darauf hinweisen, dass keine Erklärung vorgelegt werden kann. Dies sollte von allen Verwaltungsbehörden, nicht der Verwaltung dienenden Behörden und Justizbehörden berücksichtigt werden, die sich mit Beschwerden betroffener Personen befassen.

Änderungsantrag  20

 

Vorschlag für eine Verordnung

Erwägung 85

 

Vorschlag der Kommission

Geänderter Text

(85) Damit der Rechtsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der in Anhang I genannten Techniken und Konzepte für die Einstufung von KI-Systemen, der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der in Anhang III aufgeführten Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation in Anhang IV, des Inhalts der EU-Konformitätserklärung in Anhang V, der Bestimmungen über die Konformitätsbewertungsverfahren in den Anhängen VI und VII und der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme zu erlassen, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung58 niedergelegt wurden. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.

(85) Damit der Rechtsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der in Anhang I genannten Techniken und Konzepte für die Einstufung von KI-Systemen, der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der in Anhang III aufgeführten Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation in Anhang IV, des Inhalts der EU-Konformitätserklärung in Anhang V, der Bestimmungen über die Konformitätsbewertungsverfahren in den Anhängen VI und VII und der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme zu erlassen, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung58 niedergelegt wurden. An diesen Konsultationen sollte eine ausgewogene Auswahl von Interessenträgern teilnehmen, einschließlich Verbraucherorganisationen, Verbänden, die betroffene Personen vertreten, Vertretern von Unternehmen aus verschiedenen Wirtschaftszweigen und von unterschiedlicher Größe, Gewerkschaften sowie Forschern und Wissenschaftlern. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.

Änderungsantrag  21

 

Vorschlag für eine Verordnung

Erwägung 86 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(86a) Angesichts der raschen technologischen Entwicklungen und des erforderlichen technischen Fachwissens für die Bewertung von Hochrisiko-KI-Systemen sollten die Befugnisübertragung und die Durchführungsbefugnisse der Kommission so flexibel wie möglich ausgeübt werden. Die Kommission sollte Anhang III regelmäßig ohne schuldhaftes Zögern überprüfen und dabei die einschlägigen Interessenträger konsultieren.

Änderungsantrag  22

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) harmonisierte Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Systemen der künstlichen Intelligenz (im Folgenden „KI-Systeme“) in der Union;

a) harmonisierte Vorschriften für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und die Verwendung von auf den Menschen ausgerichteten und vertrauenswürdigen Systemen der künstlichen Intelligenz (im Folgenden „KI-Systeme“) in der Union unter Einhaltung demokratischer Werte;

Änderungsantrag  23

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) harmonisierte Transparenzvorschriften für KI-Systeme, die mit natürlichen Personen interagieren sollen, für KI-Systeme zur Emotionserkennung und zur biometrischen Kategorisierung sowie für KI-Systeme, die zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten verwendet werden;

d) harmonisierte Transparenzvorschriften für bestimmte KI-Systeme;

Änderungsantrag  24

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) Vorschriften für die Marktbeobachtung und Marktüberwachung.

e) Vorschriften für die Lenkung, Marktbeobachtung, Marktüberwachung und Durchsetzung;

Änderungsantrag  25

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) ein hohes Maß an Schutz öffentlicher Interessen wie Gesundheit, Sicherheit, Grundrechte und Umwelt vor potenziellen Schäden durch künstliche Intelligenz;

Änderungsantrag  26

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

eb) Maßnahmen zur Förderung der Innovation mit besonderem Schwerpunkt auf KMU und Start-up-Unternehmen, unter anderem bezüglich der Einrichtung von KI-Reallaboren und gezielte Maßnahmen zur Verringerung des Befolgungsaufwands für KMU und Start-up-Unternehmen;

Änderungsantrag  27

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ec) Bestimmungen über die Einrichtung eines unabhängigen Europäischen Ausschusses für künstliche Intelligenz, dessen Tätigkeiten die Durchsetzung dieser Verordnung unterstützen.

Änderungsantrag  28

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Nutzer von KI-Systemen, die sich in der Union befinden;

b) Nutzer von KI-Systemen, die sich in der Union befinden oder in der Union niedergelassen sind;

Änderungsantrag  29

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Anbieter und Nutzer von KI-Systemen, die in einem Drittland niedergelassen oder ansässig sind, wenn das vom System hervorgebrachte Ergebnis in der Union verwendet wird.

c) Anbieter und Nutzer von KI-Systemen, die in einem Drittland niedergelassen oder ansässig sind, wenn das vom System hervorgebrachte Ergebnis, d. h. die Vorhersagen, Empfehlungen oder Entscheidungen und die Beeinflussung des Umfelds, mit dem es interagiert, für die Verwendung in der Union vorgesehen ist und die Umwelt, Gesundheit, Sicherheit oder die Grundrechte natürlicher Personen, die sich physisch in der Union aufhalten, gefährdet, sofern der Anbieter oder Nutzer eine solche Nutzung zugelassen hat, sich ihrer bewusst ist oder eine solche Nutzung vernünftigerweise erwarten kann;

Änderungsantrag  30

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) Einführer, Händler und Bevollmächtigte von Anbietern von KI-Systemen;

Änderungsantrag  31

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Für Hochrisiko-KI-Systeme, die Sicherheitskomponenten von Produkten oder Systemen oder selbst Produkte oder Systeme sind, die in den Anwendungsbereich der folgenden Rechtsakte fallen, gilt nur Artikel 84 dieser Verordnung:

(2) Für Hochrisiko-KI-Systeme, die Sicherheitskomponenten von Produkten oder Systemen oder selbst Produkte oder Systeme sind, die in den Anwendungsbereich der in Anhang II Abschnitt B aufgeführten Rechtsakte fallen, gilt nur Artikel 84 dieser Verordnung:

a) Verordnung (EG) Nr. 300/2008,

 

b) Verordnung (EU) Nr. 167/2013,

 

c) Verordnung (EU) Nr. 168/2013,

 

d) Richtlinie 2014/90/EU,

 

e) Richtlinie (EU) 2016/797,

 

f) Verordnung (EU) 2018/858,

 

g) Verordnung (EU) 2018/1139,

 

h) Verordnung (EU) 2019/2144.

 

Änderungsantrag  32

Vorschlag für eine Verordnung

Artikel 2 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Diese Verordnung gilt nicht für KI-Systeme, die ausschließlich für militärische Zwecke entwickelt oder verwendet werden.

entfällt

Änderungsantrag  33

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Diese Verordnung berührt nicht die Forschungs-, Test- und Entwicklungstätigkeiten im Zusammenhang mit einem KI-System, das nicht in Verkehr gebracht oder in Betrieb genommen wurde, sofern diese Tätigkeiten unter Wahrung der Grundrechte und des geltenden Unionsrechts durchgeführt werden. Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zu erlassen, um derlei Ausnahmeregelungen festzulegen. Der Ausschuss stellt Leitlinien für die Lenkung von Forschung und Entwicklung gemäß Artikel 56 Absatz 2 Buchstabe cc zur Verfügung und strebt zudem an, die Art und Weise, wie diese Ausnahmeregelungen von der Kommission und den nationalen Aufsichtsbehörden eingeführt werden, zu koordinieren.

Änderungsantrag  34

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 3 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3b) Titel III dieser Verordnung gilt nicht für KI-Systeme, die im reinen Geschäftsverkehr zwischen Unternehmen verwendet werden und sofern diese Systeme kein Risiko darstellen, die Umwelt oder die Gesundheit zu schädigen oder die Sicherheit zu beeinträchtigen und kein Risiko nachteiliger Auswirkungen auf die Grundrechte verkörpern.

Änderungsantrag  35

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Diese Verordnung gilt nicht für quelloffene KI-Systeme, bis diese Systeme gegen Entgelt in Betrieb genommen oder auf dem Markt bereitgestellt werden, unabhängig davon, ob die Zahlung für das KI-System selbst, die Bereitstellung des KI-Systems als Dienstleistung oder die Bereitstellung technischer Unterstützung für das KI-System als Dienstleistung erfolgt.

Änderungsantrag  36

 

Vorschlag für eine Verordnung

Artikel 3 – Nummer 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1a. „KI-System mit allgemeinem Verwendungszweck“ ein KI-System, das – unabhängig davon, wie es in Verkehr gebracht oder in Betrieb genommen wird, auch in Form quelloffener Software – vom Anbieter dazu vorgesehen ist, allgemein anwendbare Funktionen wie Bild- oder Spracherkennung, Audio- oder Videogenerierung, Mustererkennung, Beantwortung von Fragen, Übersetzung und Sonstiges auszuführen; dabei kann ein KI-System mit allgemeinem Verwendungszweck in einer Vielzahl von Kontexten eingesetzt und in eine Vielzahl anderer KI-Systeme integriert werden;

Änderungsantrag  37

 

Vorschlag für eine Verordnung

Artikel 3 – Nummer 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

1b. „quelloffene KI-Systeme“ KI-Systeme, einschließlich Test- und Trainingsdaten, oder trainierte Modelle, die unter offenen Lizenzen vertrieben werden;

Änderungsantrag  38

 

Vorschlag für eine Verordnung

Artikel 3 – Nummer 2

 

Vorschlag der Kommission

Geänderter Text

2. „Anbieter“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System entwickelt oder entwickeln lässt, um es unter ihrem eigenen Namen oder ihrer eigenen Marke – entgeltlich oder unentgeltlich – in Verkehr zu bringen oder in Betrieb zu nehmen;

2. „Anbieter“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System entwickelt oder entwickeln lässt, um es unter ihrem eigenen Namen oder ihrer eigenen Marke – entgeltlich oder unentgeltlich – in Verkehr zu bringen oder in Betrieb zu nehmen oder KI-Systeme mit allgemeinem Verwendungszweck an eine bestimmte Zweckbestimmung anpasst;

Änderungsantrag  39

 

Vorschlag für eine Verordnung

Artikel 3 – Nummer 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

4a. „betroffene Person“ eine natürliche Person oder Personengruppe, die einem KI-System unterliegt oder von ihm betroffen ist;

Änderungsantrag  40

 

Vorschlag für eine Verordnung

Artikel 3 – Nummer 43

 

Vorschlag der Kommission

Geänderter Text

43. „zuständige nationale Behörde“ die nationale Aufsichtsbehörde, die notifizierende Behörde und die Marktüberwachungsbehörde;

entfällt

Änderungsantrag  41

 

Vorschlag für eine Verordnung

Artikel 3 – Nummer 44 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44a. „KI-Kompetenz“ die Kompetenzen, Kenntnisse und das Verständnis in Bezug auf KI-Systeme, die für die Einhaltung und Durchsetzung dieser Verordnung erforderlich sind;

Änderungsantrag  42

 

Vorschlag für eine Verordnung

Artikel 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 4a

 

Allgemeine, für alle KI-Systeme geltende Grundsätze

 

(1) Alle KI-Akteure beachten die folgenden allgemeinen Grundsätze, mit denen ein hochrangiger Rahmen geschaffen wird, mit dem ein kohärenter, auf den Menschen ausgerichteter Ansatz der Union für ethische und vertrauenswürdige künstliche Intelligenz gefördert wird, der uneingeschränkt mit der Charta und den Werten, auf die sich die Union gründet, im Einklang steht:

 

 „Menschliches Handeln und menschliche Aufsicht“ bedeutet, dass KI-Systeme als Werkzeug entwickelt und verwendet werden, das den Menschen dient, mit dem die Menschenwürde und die persönliche Autonomie respektiert werden und das so funktioniert, dass es von Menschen angemessen kontrolliert und überwacht werden kann.

 

 „Technische Robustheit und Sicherheit“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden, dass unbeabsichtigte und unerwartete Schäden minimiert werden und dass sie im Fall unbeabsichtigter Probleme robust und widerstandsfähig gegen Versuche sind, die Verwendung oder Leistung des KI-Systems so zu verändern, dass dadurch die unrechtmäßige Verwendung durch böswillige Dritte ermöglicht wird.

 

 „Privatsphäre und Datenqualitätsmanagement“ bedeutet, dass KI-Systeme im Einklang mit den geltenden Vorschriften zum Schutz der Privatsphäre und des Datenschutzes entwickelt und verwendet werden und dabei Daten verarbeiten, die hohen Vorgaben an Qualität und Integrität genügen.

 

 „Transparenz“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden müssen, dass sie angemessen nachvollziehbar und erklärbar sind, wobei den Menschen bewusst gemacht werden muss, dass sie mit einem KI-System kommunizieren oder interagieren, und dass die Nutzer ordnungsgemäß über die Fähigkeiten und Grenzen des KI-Systems und die betroffenen Personen über ihre Rechte informiert werden müssen.

 

 „Vielfalt, Diskriminierungsverbot und Fairness“ bedeutet, dass KI-Systeme in einer Weise entwickelt und verwendet werden, die unterschiedliche Akteure einbezieht und den gleichberechtigten Zugang, die Geschlechtergleichstellung und die kulturelle Vielfalt fördert, wobei diskriminierende Auswirkungen und unfaire Verzerrungen, die nach Unionsrecht oder nationalem Recht verboten sind, vermieden werden.

 

 „Soziales und ökologisches Wohlergehen“ bedeutet, dass KI-Systeme in nachhaltiger und umweltfreundlicher Weise und zum Nutzen aller Menschen entwickelt und verwendet werden, wobei die langfristigen Auswirkungen auf den Einzelnen, die Gesellschaft und die Demokratie überwacht und bewertet werden.

 

(2) Absatz 1 lässt die Verpflichtungen unberührt, die durch geltendes Unionsrecht und nationales Recht festgelegt sind.

 

Bei Hochrisiko-KI-Systemen werden die allgemeinen Grundsätze durch die in den Artikeln 8 bis 15 dieser Verordnung festgelegten Anforderungen von den Anbietern oder Nutzern umgesetzt und von ihnen eingehalten. Für alle anderen KI-Systeme wird die freiwillige Anwendung auf der Grundlage der in Artikel 69 genannten harmonisierten Normen, technischen Spezifikationen und Verhaltenskodizes nachdrücklich empfohlen, um die in Absatz 1 aufgeführten Grundsätze zu erfüllen.

 

(3) Die Kommission und der Ausschuss geben Empfehlungen ab, mit denen die Anbieter und Nutzer bei der Entwicklung und Verwendung von KI-Systemen im Einklang mit den allgemeinen Grundsätzen unterstützt werden. Bei der Ausarbeitung geeigneter harmonisierte Normen für die in Artikel 40 Absatz 2b genannten KI-Systeme mit hohem Risiko berücksichtigen die europäischen Normungsorganisationen die in Absatz 1 des vorliegenden Absatzes genannten allgemeinen Grundsätze als ergebnisorientierte Ziele.

Änderungsantrag  43

 

Vorschlag für eine Verordnung

Artikel 4 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 4b

 

KI-Kompetenz

 

(1) Bei der Durchführung dieser Verordnung fördern die Union und die Mitgliedstaaten Maßnahmen und Instrumente zur Entwicklung eines ausreichenden Niveaus an KI-Kompetenz, und zwar sektorübergreifend und unter Berücksichtigung der unterschiedlichen Bedürfnisse der betroffenen Gruppen von Anbietern, Nutzern und betroffenen Personen, unter anderem durch Aus- und Weiterbildungs-, Qualifizierungs- und Umschulungsprogramme und unter Gewährleistung eines ausgewogenen Verhältnisses in Bezug auf Geschlecht und Alter, um eine demokratische Kontrolle von KI-Systeme zu ermöglichen.

 

(2) Anbieter und Nutzer von KI-Systemen fördern Instrumente und ergreifen Maßnahmen, um sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und das Umfeld, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.

 

(3) Diese Instrumente und Maßnahmen im Hinblick auf die Kompetenz bestehen insbesondere in der Vermittlung und dem Erlernen grundlegender Begriffe und Fertigkeiten im Zusammenhang mit KI-Systemen und ihrer Funktionsweise, einschließlich der verschiedenen Arten von Produkten und Anwendungen, ihrer Risiken und Vorteile sowie der Schwere der möglichen Schäden, die sie verursachen können, und der Wahrscheinlichkeit ihres Auftretens.

 

(4) Ein ausreichendes Maß an KI-Kompetenz trägt gegebenenfalls dazu bei, dass Anbieter und Nutzer in der Lage sind, die Einhaltung und Durchsetzung dieser Verordnung zu gewährleisten.

 

Änderungsantrag  44

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 - Unterabsatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Bereitstellung angemessener Informationen gemäß Artikel 13, insbesondere bezüglich der in Absatz 2 Buchstabe b des vorliegenden Artikels genannten Risiken, und gegebenenfalls entsprechende Schulung der Nutzer.

c) Bereitstellung angemessener Informationen gemäß Artikel 13, insbesondere bezüglich der in Absatz 2 Buchstabe b des vorliegenden Artikels genannten Risiken, und gegebenenfalls entsprechende Schulung der Nutzer, um ausreichende KI-Kompetenzen gemäß Artikel 4b zu sicherzustellen.

Änderungsantrag  45

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 9

 

Vorschlag der Kommission

Geänderter Text

(9) Bei Kreditinstituten, die unter die Richtlinie 2013/36/EU fallen, sind die in den Absätzen 1 bis 8 beschriebenen Aspekte Bestandteil der von diesen Instituten gemäß Artikel 74 der Richtlinie festgelegten Risikomanagementverfahren.

(9) Bei Anbietern von KI-Systemen, die bereits unter andere Rechtsakte der Union fallen, die sie zur Einrichtung spezifischer Risikomanagementsysteme verpflichten, auch bei Kreditinstituten, die unter die Richtlinie 2013/36/EU fallen, sind die in den Absätzen 1 bis 8 beschriebenen Aspekte Bestandteil der gemäß diesen Rechtsakten der Union festgelegten Risikomanagementverfahren.

Änderungsantrag  46

 

Vorschlag für eine Verordnung

Artikel 13 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Transparenz und Bereitstellung von Informationen für die Nutzer

Transparenz und Bereitstellung von Informationen

Änderungsantrag  47

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Nutzer die Ergebnisse des Systems angemessen interpretieren und verwenden können. Die Transparenz wird auf eine geeignete Art und in einem angemessenen Maß gewährleistet, damit die Nutzer und Anbieter ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Anbieter und Nutzer die Funktionsweise des Systems angemessen verstehen können. Eine angemessene Transparenz wird gemäß der bestimmungsgemäßen Verwendung des KI-Systems gewährleistet, damit die Anbieter und die Nutzer ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.

 

Transparenz bedeutet somit, dass zum Zeitpunkt des Inverkehrbringens des Hochrisiko-KI-Systems alle nach dem allgemein anerkannten Stand der Technik verfügbaren technischen Mittel eingesetzt werden, um sicherzustellen, dass die Ergebnisse des KI-Systems vom Anbieter und vom Nutzer interpretierbar sind. Der Nutzer muss in die Lage versetzt werden, das KI-System angemessen zu verstehen und zu nutzen, indem er allgemein weiß, wie das KI-System funktioniert und welche Daten es verarbeitet, sodass der Nutzer die vom KI-System getroffenen Entscheidungen der betroffenen Person gemäß Artikel 68 Buchstabe c erläutern kann.

Änderungsantrag  48

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Hochrisiko-KI-Systeme werden mit Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen versehen, die präzise, vollständige, korrekte und eindeutige Informationen in einer für die Nutzer relevanten, barrierefrei zugänglichen und verständlichen Form enthalten.

(2) Hochrisiko-KI-Systeme werden mit verständlichen Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen auf einem dauerhaften Medium verfügbar gemacht, die präzise, korrekte, eindeutige und möglichst vollständige Informationen in einer für die Nutzer hinreichend relevanten, barrierefrei zugänglichen und verständlichen Form enthalten, die die Bedienung und Wartung des KI-Systems sowie die fundierte Entscheidungsfindung der Nutzer unterstützen.

Änderungsantrag  49

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(3) Die in Absatz 2 genannten Informationen umfassen:

(3) Um die in Absatz 1 genannten Ergebnisse zu erzielen, umfassen die in Absatz 2 genannten Informationen Folgendes:

Änderungsantrag  50

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) den Namen und die Kontaktangaben des Anbieters sowie gegebenenfalls seines Bevollmächtigten;

a) den Namen und die Kontaktangaben des Anbieters sowie gegebenenfalls seiner Bevollmächtigten;

Änderungsantrag  51

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) wenn es nicht der Anbieter ist, die Identität und die Kontaktdaten der Stelle, die die Konformitätsbewertung durchgeführt hat, und gegebenenfalls ihres Bevollmächtigten;

Änderungsantrag  52

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Einleitung

 

Vorschlag der Kommission

Geänderter Text

b) die Merkmale, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems, einschließlich

b) gegebenenfalls die Merkmale, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems, einschließlich

Änderungsantrag  53

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer ii

 

Vorschlag der Kommission

Geänderter Text

ii) des Maßes an Genauigkeit, Robustheit und Cybersicherheit gemäß Artikel 15, für das das Hochrisiko-KI-System getestet und validiert wurde und das zu erwarten ist, sowie alle bekannten und vorhersehbaren Umstände, die sich auf das erwartete Maß an Genauigkeit, Robustheit und Cybersicherheit auswirken können,

ii) des Maßes an Genauigkeit, Robustheit und Cybersicherheit gemäß Artikel 15, für das das Hochrisiko-KI-System getestet und validiert wurde und das zu erwarten ist, sowie alle eindeutig bekannten und vorhersehbaren Umstände, die sich auf das erwartete Maß an Genauigkeit, Robustheit und Cybersicherheit auswirken können,

Änderungsantrag  54

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer iii

 

Vorschlag der Kommission

Geänderter Text

iii) aller bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit oder die Grundrechte führen können,

iii) aller eindeutig bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit, die Grundrechte oder die Umwelt führen können, gegebenenfalls einschließlich beschreibender Beispiele solcher Einschränkungen und Szenarien, auf die das System nicht angewendet werden sollte;

Änderungsantrag  55

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer iii a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiia) des Ausmaßes, in dem das KI-System die von ihm getroffenen Entscheidungen erklären kann;

Änderungsantrag  56

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer v

 

Vorschlag der Kommission

Geänderter Text

v) gegebenenfalls der Spezifikationen für die Eingabedaten oder sonstiger relevanter Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze unter Berücksichtigung der Zweckbestimmung des KI-Systems;

v) der relevanten Informationen über Aktivitäten der Nutzer, durch die die Systemleistung beeinflusst werden kann, einschließlich der Art oder der Qualität der Eingabedaten oder sonstiger relevanter Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze unter Berücksichtigung der Zweckbestimmung des KI-Systems;

Änderungsantrag  57

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) die erwartete Lebensdauer des Hochrisiko-KI-Systems und alle erforderlichen Wartungs- und Pflegemaßnahmen zur Gewährleistung des ordnungsgemäßen Funktionierens dieses KI-Systems, auch in Bezug auf Software-Updates.

e) alle erforderlichen Wartungs- und Pflegemaßnahmen zur Gewährleistung des ordnungsgemäßen Funktionierens dieses KI-Systems, auch in Bezug auf Software-Updates, während der gesamten erwarteten Lebensdauer.

Änderungsantrag  58

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) eine Beschreibung der in das KI-System integrierten Mechanismen, die es den Nutzern ermöglicht, die Protokolle im Einklang mit Artikel 12 Absatz 1 ordnungsgemäß zu erfassen, zu speichern und auszuwerten.

Änderungsantrag  59

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe e b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

eb) Die Informationen müssen zumindest in der Sprache des Landes bereitgestellt werden, in dem das KI-System verwendet wird.

Änderungsantrag  60

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Um den in diesem Artikel festgelegten Verpflichtungen nachzukommen, sorgen die Anbieter und die Nutzer im Einklang mit Artikel 4b für ein ausreichendes Niveau an KI-Kompetenz.

Änderungsantrag  61

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie während der Dauer der Verwendung des KI-Systems – auch mit geeigneten Werkzeugen einer Mensch-Maschine-Schnittstelle – von natürlichen Personen wirksam beaufsichtigt werden können.

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie – auch mit geeigneten Werkzeugen einer Mensch-Maschine-Schnittstelle – von natürlichen Personen wirksam beaufsichtigt werden, und zwar in einem angemessenen Verhältnis zu den mit diesen Systemen verbundenen Risiken. Natürliche Personen, die für die menschliche Aufsicht zuständig sind, müssen über ein ausreichendes Maß an Kompetenzen im Bereich KI gemäß Artikel 4b und die notwendige Unterstützung und Autorität verfügen, um diese Funktion während der Dauer der Verwendung des KI-Systems wahrzunehmen und eine gründliche Untersuchung nach einem Vorfall zu ermöglichen.

Änderungsantrag  62

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit oder die Grundrechte, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen.

(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit, die Grundrechte oder die Umwelt, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen und wenn Entscheidungen, die ausschließlich auf der automatisierten Verarbeitung durch KI-Systeme beruhen, rechtliche oder anderweitig erhebliche Auswirkungen auf die Personen oder Personengruppen haben, bei denen das System eingesetzt werden soll.

Änderungsantrag  63

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 3 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(3) Die menschliche Aufsicht wird durch eine oder alle der folgenden Vorkehrungen gewährleistet:

(3) Die menschliche Aufsicht berücksichtigt die spezifischen Risiken, den Automatisierungsgrad und den Kontext des KI-Systems und wird durch eine oder alle der folgenden Arten von Vorkehrungen gewährleistet:

Änderungsantrag  64

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(4) Die in Absatz 3 genannten Maßnahmen müssen den Personen, denen die menschliche Aufsicht übertragen wurde, je nach den Umständen Folgendes ermöglichen:

(4) Für die Zwecke der Durchführung der Absätze 1 bis 3 wird das KI-System für hohe Risiken dem Nutzer so zur Verfügung gestellt, dass den natürlichen Personen, denen die menschliche Aufsicht zugewiesen ist, in die Lage versetzt werden, den Umständen entsprechend angemessen und verhältnismäßig zu handeln:

Änderungsantrag  65

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) die Fähigkeiten und Grenzen des Hochrisiko-KI-Systems vollständig zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen, damit Anzeichen von Anomalien, Fehlfunktionen und unerwarteter Leistung so bald wie möglich erkannt und behoben werden können;

a) die relevanten Fähigkeiten und Grenzen des Hochrisiko-KI-Systems ausreichend zu verstehen und sich ihrer bewusst zu sein und seinen Betrieb ordnungsgemäß zu überwachen, damit Anzeichen von Anomalien, Fehlfunktionen und unerwarteter Leistung so bald wie möglich erkannt und behoben werden können;

Änderungsantrag  66

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen.

e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen, das es ermöglicht, das System in einem sicheren Zustand zum Stillstand zu bringen, es sei denn, der menschliche Eingriff erhöht die Risiken oder würde die Leistung unter Berücksichtigung des allgemein anerkannten Stands der Technik negativ beeinflussen.

Änderungsantrag  67

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 genannten Vorkehrungen so gestaltet sein, dass außerdem der Nutzer keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange dies nicht von mindestens zwei natürlichen Personen überprüft und bestätigt wurde.

(5) Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 genannten Vorkehrungen so gestaltet sein, dass außerdem der Nutzer keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange dies nicht von mindestens zwei natürlichen Personen, die die notwendige Kompetenz, Schulung und Befugnis besitzen, überprüft und bestätigt wurde.

Änderungsantrag  68

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) sicherstellen, dass ihre Hochrisiko-KI-Systeme die Anforderungen in Kapitel 2 dieses Titels erfüllen;

a) vor dem Inverkehrbringen oder der Inbetriebnahme ihrer KI-Systeme sicherstellen, dass ihre Hochrisiko-KI-Systeme die Anforderungen in Kapitel 2 dieses Titels erfüllen;

Änderungsantrag  69

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) ihren Namen, ihren eingetragenen Handelsnamen oder ihre eingetragene Handelsmarke und ihre Kontaktanschrift auf dem Hochrisiko-KI-System selbst oder, wenn dies nicht möglich ist, auf der Verpackung oder in der beigefügten Dokumentation angeben;

Änderungsantrag  70

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) die technische Dokumentation des Hochrisiko-KI-Systems erstellen;

c) die Dokumentation aufbewahren und, sofern noch nicht verfügbar, die in Artikel 18 genannte technische Dokumentation erstellen;

Änderungsantrag  71

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) die von ihren Hochrisiko-KI-Systemen automatisch erzeugten Protokolle aufbewahren, wenn dies ihrer Kontrolle unterliegt;

d) die von ihren Hochrisiko-KI-Systemen in Übereinstimmung mit Artikel 20 automatisch erzeugten Protokolle aufbewahren, wenn dies ihrer Kontrolle unterliegt;

Änderungsantrag  72

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) sicherstellen, dass das Hochrisiko-KI-System dem betreffenden Konformitätsbewertungsverfahren unterzogen wird, bevor es in Verkehr gebracht oder in Betrieb genommen wird;

e) das betreffende Konformitätsbewertungsverfahren gemäß Artikel 19 durchführen, bevor es in Verkehr gebracht oder in Betrieb genommen wird;

Änderungsantrag  73

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) die erforderlichen Korrekturmaßnahmen ergreifen, wenn das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels nicht erfüllt;

g) die erforderlichen Korrekturmaßnahmen gemäß Artikel 21 ergreifen, wenn das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels nicht erfüllt;

Änderungsantrag  74

 

Vorschlag für eine Verordnung

Artikel 16 – Absatz 1 – Buchstabe j

 

Vorschlag der Kommission

Geänderter Text

j) auf Anfrage einer zuständigen nationalen Behörde nachweisen, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt.

j) auf begründete Anfrage einer zuständigen nationalen Behörde die relevanten Informationen und Dokumentation zur Verfügung stellen, um nachzuweisen, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt.

Änderungsantrag  75

 

Vorschlag für eine Verordnung

Artikel 23 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 23a

 

Anforderungen an andere Personen, die den Verpflichtungen eines Anbieters unterliegen

 

(1) In Bezug auf Hochrisiko-KI-Systeme gilt jede natürliche oder juristische Person als neuer Anbieter im Sinne dieser Verordnung und unterliegt den Verpflichtungen des Anbieters gemäß Artikel 16, wenn einer der folgenden Umstände vorliegt:

 

a) sie bringen ihren Namen oder ihre Markenbezeichnung an einem bereits in Verkehr gebrachten oder in Betrieb genommenen Hochrisiko-AI-System an, unbeschadet vertraglicher Vereinbarungen, die eine andere Aufteilung der Verpflichtungen vorsehen;

 

b) sie nehmen erhebliche Änderungen an der Zweckbestimmung eines bereits im Verkehr befindlichen oder in Betrieb genommenen Hochrisiko-KI-Systems vor oder verändern diese;

 

c) sie ändern die Zweckbestimmung eines bereits im Verkehr befindlichen oder in Betrieb genommenen nicht hochriskanten KI-Systems auf eine Art und Weise, dass das geänderte System zu einem Hochrisiko-KI-System wird;

 

d) sie bringen ein Open-Source-KI-System, ein von einem Open-Source-KI-System abgeleitetes KI-System oder technische Unterstützungsdienste für ein solches Open-Source-KI-System auf den Markt oder machen es auf dem Markt verfügbar, und zwar mit oder ohne Änderungen und gegen Entgelt;

 

e) sie passen ein bereits im Verkehr befindliches oder in Betrieb genommenes KI-System zur allgemeinen Verwendung an einen bestimmten Zweck an.

 

(2) Unter den in Absatz 1 Buchstabe a, b, c oder d genannten Umständen gilt der ehemalige Anbieter, der das Hochrisiko-KI-System ursprünglich in Verkehr gebracht oder in Betrieb genommen hatte, nicht mehr als Anbieter für die Zwecke dieser Verordnung. Der bisherige Anbieter stellt dem neuen Anbieter auf Anfrage und unter Achtung seiner eigenen Rechte an geistigem Eigentum oder Geschäftsgeheimnisse alle wesentlichen, relevanten und vernünftigerweise verwertbaren Informationen zur Verfügung, die zur Erfüllung der in dieser Verordnung festgelegten Verpflichtungen erforderlich sind.

 

(3) Der ursprüngliche Anbieter eines KI-Systems zur allgemeinen Verwendung gemäß Absatz 1 Buchstabe e muss unter Wahrung seiner eigenen Rechte des geistigen Eigentums oder Geschäftsgeheimnissen und unter Berücksichtigung der Risiken, die speziell mit der Anpassung des KI-Systems zur allgemeinen Zweckbestimmung an eine bestimmte Zweckbestimmung verbunden sind,

 

a) sicherstellen, dass das KI-System zur allgemeinen Verwendung, das als Hochrisiko-KI-System verwendet werden kann, die Anforderungen der Artikel 9, 10, 11, Artikel 13 Absätze 2 und 3, Artikel 14 Absatz 1 und Artikel 15 dieser Verordnung erfüllt;

 

b) den Verpflichtungen gemäß den Artikeln 16aa, 16e, 16f, 16g, 16i, 16j, 48 und 61 dieser Verordnung nachkommen;

 

c) die vernünftigerweise vorhersehbaren Fehlanwendungen des KI-Systems zur allgemeinen Verwendung, die während der erwarteten Lebensdauer auftreten können, bewerten und auf der Grundlage des allgemein anerkannten Stands der Technik Maßnahmen zur Eindämmung dieser Fälle ergreifen;

 

d) dem in Absatz 1 Buchstabe d genannten neuen Anbieter alle wesentlichen, relevanten und vernünftigerweise zu erwartenden Informationen übermitteln, die erforderlich sind, um den in dieser Verordnung festgelegten Verpflichtungen nachzukommen.

 

(4) Bei Hochrisiko-KI-Systemen, bei denen es sich um Sicherheitskomponenten von Produkten handelt, für die die in Anhang II Abschnitt A aufgeführten Rechtsakte gelten, gilt der Hersteller dieser Produkte als Anbieter des Hochrisiko-KI-Systems und hat für einen der nachstehend aufgeführten Fälle die in Artikel 16 genannten Auflagen zu erfüllen:

 

i) das Hochrisiko-KI-System wird zusammen mit dem Produkt unter dem Namen oder der Handelsmarke des Produktherstellers in Verkehr gebracht; oder

 

ii) das Hochrisiko-KI-System wird unter dem Namen oder der Handelsmarke des Produktherstellers in Betrieb genommen wird, nachdem das Produkt in Verkehr gebracht wurde.

 

(5) Dritte, die am Verkauf und an der Bereitstellung von Software, einschließlich Anwendungsprogrammierschnittstellen (API) zu allgemeinen Verwendungszwecken, Software-Tools und Software-Komponenten, beteiligt sind, oder Anbieter von Netzdiensten gelten nicht als Anbieter im Sinne dieser Verordnung.

Änderungsantrag  76

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Nutzer von Hochrisiko-KI-Systemen verwenden solche Systeme entsprechend der den Systemen beigefügten Gebrauchsanweisung und gemäß den Absätzen 2 und 5.

(1) Die Nutzer von Hochrisiko-KI-Systemen ergreifen angemessene organisatorische Maßnahmen und stellen sicher, dass die Nutzung solcher Systeme entsprechend der den Systemen beigefügten Gebrauchsanweisung und gemäß den Absätzen 1a bis 5 dieses Artikels erfolgt. Der Nutzer trägt die Verantwortung, wenn er das KI-System nicht entsprechend der den Systemen beigefügten Gebrauchsanweisung verwendet.

Änderungsantrag  77

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Soweit der Nutzer die Kontrolle über das Hochrisiko-KI-System ausübt, beauftragt er natürliche Personen mit der Aufsicht, die gemäß Artikel 4b über die erforderlichen Kompetenzen im Bereich KI verfügen.

Änderungsantrag  78

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Pflichten nach Absatz 1 lassen sonstige Pflichten der Nutzer nach Unionsrecht oder nationalem Recht sowie das Ermessen der Nutzer bei der Organisation ihrer eigenen Ressourcen und Tätigkeiten zur Wahrnehmung der vom Anbieter angegebenen Maßnahmen der menschlichen Aufsicht unberührt.

(2) Die Pflichten nach Absatz 1 und 1a lassen sonstige Pflichten der Nutzer nach Unionsrecht oder nationalem Recht sowie das Ermessen der Nutzer bei der Organisation ihrer eigenen Ressourcen und Tätigkeiten zur Wahrnehmung der vom Anbieter angegebenen Maßnahmen der menschlichen Aufsicht unberührt.

Änderungsantrag  79

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Unbeschadet des Absatzes 1 und soweit die Eingabedaten seiner Kontrolle unterliegen, sorgen die Nutzer dafür, dass die Eingabedaten der Zweckbestimmung des Hochrisiko-KI-Systems entsprechen.

(3) Unbeschadet des Absatzes 1 und soweit die Eingabedaten ihrer Kontrolle unterliegen, sorgen die Nutzer dafür, dass die Eingabedaten der Zweckbestimmung des Hochrisiko-KI-Systems entsprechen und ausreichend repräsentativ sind.

Änderungsantrag  80

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 4 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

(4) Die Nutzer überwachen den Betrieb des Hochrisiko-KI-Systems anhand der Gebrauchsanweisung. Haben sie Grund zu der Annahme, dass die Verwendung gemäß der Gebrauchsanweisung dazu führen kann, dass das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 birgt, so informieren sie den Anbieter oder Händler und setzen die Verwendung des Systems aus. Sie informieren den Anbieter oder Händler auch, wenn sie einen schwerwiegenden Vorfall oder eine Fehlfunktion im Sinne des Artikels 62 festgestellt haben, und unterbrechen die Verwendung des KI-Systems. Kann der Nutzer den Anbieter nicht erreichen, so gilt Artikel 62 entsprechend.

(4) Die Nutzer überwachen den Betrieb des Hochrisiko-KI-Systems anhand der Gebrauchsanweisung und unterrichten gegebenenfalls den Anbieter gemäß Artikel 61. Soweit die Nutzer die Kontrolle über das Hochrisiko-KI-System ausüben, führen sie auch Risikobewertungen gemäß Artikel 9 durch, die sich jedoch auf die potenziellen negativen Auswirkungen der Nutzung des Hochrisiko-KI-Systems sowie die entsprechenden Abhilfemaßnahmen beschränken. Haben sie Grund zu der Annahme, dass die Verwendung gemäß der Gebrauchsanweisung dazu führen kann, dass das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 birgt, so informieren sie den Anbieter oder Händler und setzen die Verwendung des Systems aus. Sie informieren den Anbieter oder Händler und die zuständige Aufsichtsbehörde auch, wenn sie einen schwerwiegenden Vorfall festgestellt haben, und unterbrechen die Verwendung des KI-Systems. Kann der Nutzer den Anbieter, Importeur oder Händler nicht erreichen, so gilt Artikel 62 entsprechend.

Änderungsantrag  81

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 5 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

(5) Nutzer von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle auf, soweit diese Protokolle ihrer Kontrolle unterliegen. Die Protokolle werden für einen Zeitraum aufbewahrt, der der Zweckbestimmung des Hochrisiko-KI-Systems und den geltenden rechtlichen Verpflichtungen nach Unionsrecht oder nationalem Recht angemessen ist.

(5) Nutzer von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle auf, soweit diese Protokolle ihrer Kontrolle unterliegen und soweit dies aus technischer Sicht möglich ist. Sofern im geltenden Unionsrecht oder im nationalen Recht nichts anderes vorgesehen ist, bewahren sie sie mindestens sechs Monate lang auf.

Änderungsantrag  82

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Die Nutzer von Hochrisiko-KI-Systemen verwenden die gemäß Artikel 13 bereitgestellten Informationen, um gegebenenfalls ihrer Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 nachzukommen.

(6) Die Nutzer von Hochrisiko-KI-Systemen verwenden die gemäß Artikel 13 bereitgestellten Informationen, um ihrer Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 nachzukommen, und können gegebenenfalls auf diese Datenschutz-Folgenabschätzungen zurückgreifen, um die in diesem Artikel genannten Verpflichtungen zu erfüllen.

Änderungsantrag  83

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) Der Anbieter ist verpflichtet, eng mit dem Nutzer zusammenzuarbeiten und ihm insbesondere die erforderlichen und angemessenen Informationen zur Verfügung zu stellen, damit dieser seinen in diesem Artikel genannten Verpflichtungen nachkommen kann.

Änderungsantrag  84

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 6 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6b) Die Nutzer arbeiten mit den zuständigen nationalen Behörden bei allen Maßnahmen zusammen, die diese Behörden im Zusammenhang mit einem KI-System ergreifen.

Änderungsantrag  85

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Bei Hochrisiko-KI-Systemen, die mit harmonisierten Normen oder Teilen davon, deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht wurden, übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels vermutet, soweit diese Anforderungen von den Normen abgedeckt sind.

(1) Bei Hochrisiko-KI-Systemen, die mit harmonisierten Normen oder Teilen davon, deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht wurden, übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels vermutet, soweit diese Anforderungen von den Normen abgedeckt sind.

Änderungsantrag  86

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Bei der Erteilung eines Normungsauftrags an die europäischen Normungsorganisationen gemäß Artikel 10 der Verordnung (EU) 1025/2012 gibt die Kommission an, dass die Normen kohärent, leicht umsetzbar und so abgefasst sind, dass sie insbesondere die folgenden Ziele erfüllen:

 

a) Sicherstellung, dass KI-Systeme, die in der Union in Verkehr gebracht oder in Betrieb genommen werden, sicher und vertrauenswürdig sind und die Werte der Union achten und die digitale Souveränität der Union stärken;

 

b) Berücksichtigung der Grundsätze der vertrauenswürdigen KI gemäß Artikel 4a;

 

c) Förderung von Investitionen und Innovationen im Bereich der KI sowie der Wettbewerbsfähigkeit und des Wachstums des Unionsmarktes;

 

d)  Verbesserung der Multi-Stakeholder-Governance, die alle relevanten europäischen Interessengruppen repräsentiert (z. B. Industrie, KMU, Zivilgesellschaft, Sozialpartner, Forschung);

 

e) Leistung eines Beitrags zur Stärkung der weltweiten Zusammenarbeit bei der Normung im Bereich der künstlichen Intelligenz, die mit den Werten, Grundrechten und Interessen der Union im Einklang steht.

 

Die Kommission fordert die europäischen Normungsorganisationen auf, nachzuweisen, dass sie sich nach besten Kräften bemühen, die genannten Ziele zu erreichen.

 

(1b)  Die Kommission erteilt Normungsaufträge, die alle Anforderungen dieser Verordnung abdecken, gemäß Artikel 10 der Verordnung (EU) Nr. 1025/2012 vor dem Inkrafttreten der vorliegenden Verordnung.

Änderungsantrag  87

 

Vorschlag für eine Verordnung

Artikel 52 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Transparenzpflichten für bestimmte KI-Systeme

Transparenzpflichten

Änderungsantrag  88

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass das KI-System, der Anbieter selbst oder der Nutzer die natürliche Person, die einem KI-System ausgesetzt ist, rechtzeitig, klar und verständlich darüber informiert, dass sie es mit einem KI-System zu tun hat, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich.

 

Soweit angemessen und sachdienlich, umfassen diese Informationen auch, welche Funktionen KI-gestützt sind, ob es eine menschliche Aufsicht gibt und wer für den Entscheidungsprozess verantwortlich ist, sowie die bestehenden Rechte und Verfahren, die es natürlichen Personen oder ihren Vertretern nach dem Unionsrecht und dem nationalen Recht ermöglichen, gegen die Anwendung solcher Systeme auf sie Einspruch zu erheben und gerichtlichen Rechtsbehelf gegen Entscheidungen, die von KI-Systemen getroffen wurden, oder gegen Schäden, die durch sie verursacht wurden, einzulegen, einschließlich ihres Rechts, eine Erklärung zu verlangen. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.

Änderungsantrag  89

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.

(2) Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung, das nicht gemäß Artikel 5 verboten ist, informieren die natürlichen Personen, die dem System ausgesetzt sind, rechtzeitig, klar und verständlich über den Betrieb des Systems und holen ihre Einwilligung vor der Verarbeitung ihrer biometrischen und sonstigen personenbezogenen Daten gemäß der Verordnung (EU) 2016/679, der Verordnung (EU) 2016/1725 bzw. der Richtlinie (EU) 2016/280 ein. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.

Änderungsantrag  90

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

(3) Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.

(3) Nutzer eines KI-Systems, das Text-, Audio- oder visuelle Inhalte erzeugt oder manipuliert, die fälschlicherweise als echt oder wahrhaftig erscheinen würden und in denen Personen ohne ihre Zustimmung dargestellt werden, die scheinbar Dinge sagen oder tun, die sie nicht gesagt oder getan haben („Deepfake“), müssen in angemessener, zeitnaher, klarer und sichtbarer Weise offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, sowie, wann immer möglich, den Namen der natürlichen oder juristischen Person, die sie erstellt oder manipuliert hat. Offenlegung bedeutet, dass der Inhalt in einer Weise gekennzeichnet wird, die darüber informiert, dass der Inhalt nicht echt ist, und die für den Empfänger dieses Inhalts deutlich sichtbar ist. Bei der Kennzeichnung der Inhalte berücksichtigen die Nutzer den allgemein anerkannten Stand der Technik und die einschlägigen harmonisierten Normen und Spezifikationen.

Änderungsantrag  91

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Unterabsatz 1 gilt jedoch nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.

(3a) Absatz 3 gilt jedoch nicht, wenn die Verwendung eines KI-Systems, das Text-, Audio- oder visuelle Inhalte erzeugt oder manipuliert, gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen. Wenn der Inhalt Teil eines offensichtlich kreativen, satirischen, künstlerischen oder fiktionalen Filmwerks, Videospiels, visuellen Werks oder analogen Programms ist, so beschränken sich die Transparenzpflichten gemäß Absatz 3 darauf, das Vorhandensein solcher generierten oder manipulierten Inhalte in geeigneter, klarer und sichtbarer Weise offenzulegen, die die Darstellung des Werks nicht beeinträchtigt, und gegebenenfalls die geltenden Urheberrechte offenzulegen. Sie hindern die Strafverfolgungsbehörden auch nicht daran, KI-Systeme zu verwenden, die dazu bestimmt sind, Deepfakes aufzudecken und Straftaten im Zusammenhang mit ihrer Verwendung zu verhindern, zu untersuchen und zu verfolgen.

Änderungsantrag  92

 

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3b) Die in den Absätzen 1 bis 3 genannten Informationen werden den natürlichen Personen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung bereitgestellt. Sie sind schutzbedürftigen Personen, etwa Menschen mit Behinderungen oder Kindern, zugänglich, und, sofern relevant und möglich, sind ergänzende Verfahren für die Intervention sowie die Meldung und Kennzeichnung von Inhalten seitens der betroffenen natürlichen Personen unter Berücksichtigung des allgemein anerkannten Stands der Technik und der einschlägigen harmonisierten Normen und gemeinsamen Spezifikationen vorzusehen.

Änderungsantrag  93

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Ein „Europäischer Ausschuss für künstliche Intelligenz“ (im Folgenden „Ausschuss“) wird eingerichtet.

(1) Ein „Europäischer Ausschuss für künstliche Intelligenz“ (im Folgenden „Ausschuss“) wird als unabhängiges Gremium mit eigener Rechtspersönlichkeit eingerichtet, um einen vertrauenswürdigen, leistungs- und wettbewerbsfähigen Binnenmarkt für künstliche Intelligenz zu fördern. Der Ausschuss ist so organisiert, dass die Unabhängigkeit, Objektivität und Unparteilichkeit seiner Tätigkeiten sichergestellt sind, verfügt über ein Sekretariat, ein starkes Mandat sowie über ausreichende Mittel und qualifiziertes Personal, das ihn bei der ordnungsgemäßen Erfüllung seiner in Artikel 58 festgelegten Aufgaben unterstützt.

Änderungsantrag  94

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Der Ausschuss berät und unterstützt die Kommission zu folgenden Zwecken:

(2) Der Ausschuss berät und unterstützt die Kommission und die Mitgliedstaaten bei der Umsetzung des Unionsrechts im Bereich künstliche Intelligenz und arbeitet mit den Anbietern und Nutzern von KI-Systemen zu folgenden Zwecken zusammen:

Änderungsantrag  95

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Leisten eines Beitrags zur wirksamen Zusammenarbeit der nationalen Aufsichtsbehörden und der Kommission in Angelegenheiten, die unter diese Verordnung fallen;

a) Förderung und Unterstützung der wirksamen Zusammenarbeit der nationalen Aufsichtsbehörden und der Kommission;

Änderungsantrag  96

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Unterstützung der nationalen Aufsichtsbehörden und der Kommission bei der Gewährleistung der einheitlichen Anwendung dieser Verordnung.

c) Unterstützung der Kommission, der nationalen Aufsichtsbehörden und anderer zuständiger nationaler Behörden bei der Gewährleistung der einheitlichen Anwendung dieser Verordnung, insbesondere im Einklang mit dem Kohärenzverfahren nach Artikel 59a Absatz 3.

Änderungsantrag  97

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) Unterstützung von Anbietern und Nutzern von KI-Systemen, insbesondere KMU und Start-up-Unternehmen, bei der Erfüllung der Anforderungen dieser Verordnung sowie der in geltenden und künftigen Rechtsvorschriften der Union festgelegten Anforderungen.

Änderungsantrag  98

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Buchstabe c b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cb) besondere Aufsicht, Überwachung und regelmäßiger Dialog mit den Anbietern von KI-Systemen mit allgemeinem Verwendungszweck über deren Einhaltung der Verordnung. Die nationalen Aufsichtsbehörden, die notifizierten Stellen und die Marktüberwachungsbehörden können an jeder solchen Sitzung teilnehmen und Beiträge leisten;

Änderungsantrag  99

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Buchstabe c c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cc) Vorschlagen von Änderungen an den Anhängen I und III.

Änderungsantrag  100

 

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Der Ausschuss dient den Organen, Einrichtungen und sonstigen Stellen der Union sowie anderen maßgeblichen Interessenträgern als Bezugspunkt für Beratung und Sachkenntnis bei Fragen im Zusammenhang mit künstlicher Intelligenz.

Änderungsantrag  101

 

Vorschlag für eine Verordnung

Artikel 57 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Struktur des Ausschusses

Mandat und Struktur des Ausschusses

Änderungsantrag  102

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, und dem Europäischen Datenschutzbeauftragten. Weitere nationale Behörden können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind.

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde. Weitere nationale Behörden können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind. Bei der Zusammensetzung des Ausschusses wird auf eine ausgewogene Vertretung der Geschlechter geachtet.

 

Der Europäische Datenschutzbeauftragte, der Vorsitzende der Agentur der Europäischen Union für Grundrechte, der Exekutivdirektor der Agentur der Europäischen Union für Cybersicherheit, der Vorsitzende der hochrangigen Expertengruppe für KI, der Generaldirektor der Gemeinsamen Forschungsstelle und die Präsidenten des Europäischen Komitees für Normung, des Europäischen Komitees für elektrotechnische Normung und des Europäischen Instituts für Telekommunikationsnormen werden als ständige Beobachter eingeladen, die das Wort ergreifen dürfen, jedoch kein Stimmrecht haben.

Änderungsantrag  103

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Der Ausschuss gibt sich mit einfacher Mehrheit seiner Mitglieder und nach Zustimmung der Kommission eine Geschäftsordnung. Die Geschäftsordnung regelt auch die operativen Aspekte der Wahrnehmung der in Artikel 58 aufgeführten Aufgaben des Ausschusses. Der Ausschuss kann gegebenenfalls Untergruppen zur Prüfung besonderer Fragen einsetzen.

(2) Der Ausschuss gibt sich mit einfacher Mehrheit seiner Mitglieder und mit Unterstützung durch sein Sekretariat eine Geschäftsordnung. Die Geschäftsordnung regelt auch die operativen Aspekte der Wahrnehmung der in Artikel 58 aufgeführten Aufgaben des Ausschusses. Der Ausschuss kann gegebenenfalls ständige oder nichtständige Untergruppen zur Prüfung besonderer Fragen einsetzen.

Änderungsantrag  104

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Den Vorsitz im Ausschuss führt die Kommission. Die Kommission beruft die Sitzungen ein und bereitet die Tagesordnung im Einklang mit den Aufgaben des Ausschusses gemäß dieser Verordnung und seiner Geschäftsordnung vor. Die Kommission leistet administrative und analytische Unterstützung für die Tätigkeiten des Ausschusses gemäß dieser Verordnung.

(3) Der Vorsitz des Ausschusses wird von der Kommission und einem aus den Reihen der Delegierten der Mitgliedstaaten ausgewählten Vertreter gemeinsam geführt. Das Sekretariat des Ausschusses beruft die Sitzungen ein und bereitet die Tagesordnung im Einklang mit den Aufgaben des Ausschusses gemäß dieser Verordnung und seiner Geschäftsordnung vor. Das Sekretariat des Ausschusses leistet auch administrative und analytische Unterstützung für die Tätigkeiten des Ausschusses gemäß dieser Verordnung.

Änderungsantrag  105

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Der Ausschuss kann externe Sachverständige und Beobachter zu seinen Sitzungen einladen und einen Meinungsaustausch mit interessierten Dritten führen, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Verwaltungsrat und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union fördern.

(4) Der Ausschuss lädt regelmäßig externe Sachverständige, insbesondere von Organisationen, die die Interessen der Anbieter und Nutzer von KI-Systemen vertreten, KMU und Start-up-Unternehmen, Organisationen der Zivilgesellschaft, Gewerkschaften, Vertreter betroffener Personen, Hochschulen und Forscher, Erprobungs- und Versuchseinrichtungen sowie Normungsorganisationen zu seinen Sitzungen ein, um die Rechenschaftspflicht und eine angemessene Beteiligung externer Akteure sicherzustellen. Die Tagesordnungen und die Protokolle seiner Sitzungen werden online veröffentlicht. Die Kommission kann den Austausch zwischen dem Ausschuss und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union fördern.

Änderungsantrag  106

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Unbeschadet des Absatzes 4 organisiert das Sekretariat des Ausschusses vier zusätzliche Sitzungen zwischen dem Ausschuss und der hochrangigen Expertengruppe für vertrauenswürdige KI, um ihnen die Möglichkeit zu geben, ihr praktisches und technisches Fachwissen in jedem Quartal des Jahres auszutauschen.

Änderungsantrag  107

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

Bei der Beratung und Unterstützung der Kommission im Zusammenhang mit Artikel 56 Absatz 2 hat der Ausschuss insbesondere folgende Aufgaben:

Bei der Beratung und Unterstützung der Kommission und der Mitgliedstaaten im Zusammenhang mit Artikel 56 Absatz 2 hat der Ausschuss insbesondere folgende Aufgaben:

Änderungsantrag  108

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Sammlung von Fachwissen und bewährten Verfahren und deren Austausch zwischen den Mitgliedstaaten;

a) Sammlung von Fachwissen und bewährten Verfahren und deren Austausch zwischen den Mitgliedstaaten, einschließlich der Förderung von KI-Kompetenzen und Initiativen zur Sensibilisierung für künstliche Intelligenz und diese Verordnung;

Änderungsantrag  109

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe a a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

aa) Förderung und Unterstützung der Zusammenarbeit zwischen nationalen Aufsichtsbehörden und der Kommission;

Änderungsantrag  110

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Leisten eines Beitrags zu einer einheitlichen Verwaltungspraxis in den Mitgliedstaaten, auch bezüglich der Funktionsweise der in Artikel 53 genannten KI-Reallabore;

b) Leisten eines Beitrags zu einer einheitlichen Verwaltungspraxis in den Mitgliedstaaten, auch bezüglich der Bewertung, Einrichtung, Verwaltung im Sinne der Förderung der Zusammenarbeit und der Sicherstellung einheitlicher KI-Reallabore und der Funktionsweise der in Artikel 53 genannten KI-Reallabore;

Änderungsantrag  111

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c – Einleitung

 

Vorschlag der Kommission

Geänderter Text

c) Abgabe von Stellungnahmen, Empfehlungen oder schriftlichen Beiträgen zu Fragen im Zusammenhang mit der Durchführung dieser Verordnung, insbesondere

c) Abgabe von Leitlinien, Empfehlungen oder schriftlichen Beiträgen zu Fragen im Zusammenhang mit der Durchführung dieser Verordnung, insbesondere

Änderungsantrag  112

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c – Ziffer ii a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iia) über die Bestimmungen im Zusammenhang mit der Beobachtung nach dem Inverkehrbringen gemäß Artikel 61,

Änderungsantrag  113

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c – Ziffer iii a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiia) über die Notwendigkeit der Änderung der einzelnen in Artikel 73 genannten Anhänge sowie aller anderen Bestimmungen dieser Verordnung, die die Kommission vor dem Hintergrund vorliegender Erkenntnisse ändern kann,

Änderungsantrag  114

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c – Ziffer iii b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiib) über Tätigkeiten und Entscheidungen der Mitgliedstaaten in Bezug auf die Beobachtung nach dem Inverkehrbringen, den Informationsaustausch und die Marktüberwachung gemäß Titel VIII,

Änderungsantrag  115

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c – Ziffer iii c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiic) über gemeinsame Kriterien für Marktteilnehmer und zuständige Behörden, die dasselbe Verständnis von Begriffen wie „allgemein anerkannter Stand der Technik“ gemäß Artikel 9 Absatz 3, Artikel 13 Absatz 1, Artikel 14 Absatz 4, Artikel 23a Absatz 3 oder Artikel 52 Absatz 3a, „vorhersehbare Risiken“ gemäß Artikel 9 Absatz 2 Buchstabe a), „vorhersehbare Fehlanwendung“ gemäß Artikel 3 Absatz 13, Artikel 9 Absatz 2 Buchstabe b, Artikel 9 Absatz 4, Artikel 13 Absatz 3 Buchstabe b Ziffer iii, Artikel 14 Absatz 2 und Artikel 23a Absatz 3c haben,

Änderungsantrag  116

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c – Ziffer iii d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiid) über die Überprüfung der Angleichung an die in Anhang II aufgeführten Rechtsakte, einschließlich der mit diesen Rechtsakten verbundenen Durchführungsfragen,

Änderungsantrag  117

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c – Ziffer iii e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiie) über die Einhaltung der für alle KI-Systeme geltenden allgemeinen Grundsätze gemäß Artikel 4a;

Änderungsantrag  118

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) Durchführung jährlicher Prüfungen und Analysen der an die nationalen Aufsichtsbehörden gerichteten Beschwerden und der von diesen getroffenen Feststellungen, der Berichte über schwerwiegende Vorfälle und Fehlfunktionen gemäß Artikel 62 und der erneuten Registrierung in der EU-Datenbank nach Artikel 60, um Entwicklungen und möglicherweise neu auftretende Probleme zu ermitteln, die in der Zukunft die Gesundheit, die Sicherheit und die Grundrechte der Bürgerinnen und Bürger gefährden und denen mit dieser Verordnung nicht angemessen Rechnung getragen wird;

Änderungsantrag  119

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cb) halbjährliche Durchführung von horizontalen Überprüfungen und Tätigkeiten der Vorausschau, um die Auswirkungen von wissenschaftlichen Entwicklungen, Trends und neu auftretenden Problemen auf die Union zu prognostizieren;

Änderungsantrag  120

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cc) jährliche Veröffentlichung von Empfehlungen an die Kommission, insbesondere zur Einstufung von verbotenen Praktiken, Hochrisikosystemen und Verhaltenskodizes für KI-Systeme, die nicht als Hochrisikosysteme eingestuft sind;

Änderungsantrag  121

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cd) Förderung und Erleichterung der Ausarbeitung von Verhaltenskodizes gemäß Artikel 69;

Änderungsantrag  122

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ce) Koordinierung der zuständigen nationalen Behörden und Sicherstellung, dass das Kohärenzverfahren nach Artikel 59a Absatz 3 eingehalten wird, insbesondere bei allen wichtigen grenzüberschreitenden Fällen;

Änderungsantrag  123

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c f (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cf) Annahme verbindlicher Beschlüsse für die nationalen Aufsichtsbehörden, wenn der Konflikt zwischen den nationalen Aufsichtsbehörden nicht wie in Artikel 59a Absatz 6 dargelegt mithilfe des Kohärenzverfahrens gelöst werden kann;

Änderungsantrag  124

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c g (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cg) Bereitstellung von Anleitungen für Anbieter und Nutzer in Bezug auf die Erfüllung der in dieser Verordnung festgelegten Anforderungen. Herausgegeben werden insbesondere Leitlinien

 

i) zur technischen Bewertung der vertrauenswürdigen KI gemäß Artikel 4a,

 

ii) zu den Verfahren zur Durchführung der Konformitätsbewertung auf der Grundlage einer internen Kontrolle gemäß Artikel 43,

 

iii) zur Erleichterung der Erfüllung der Anforderungen an die Meldung schwerwiegender Vorfälle oder Fehlfunktionen gemäß Artikel 62,

 

iv) zu allen anderen konkreten Verfahren, die Anbieter und Nutzer zur Einhaltung dieser Verordnung befolgen müssen, insbesondere im Hinblick auf die den notifizierten Stellen vorzulegenden Unterlagen und die Verfahrensweisen zur Übermittlung weiterer relevanter Informationen an die Behörden.

Änderungsantrag  125

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c h (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ch) Bereitstellung spezifischer Beratung zur Unterstützung von KMU und Start-up-Unternehmen bei der Einhaltung der in dieser Verordnung festgelegten Verpflichtungen;

Änderungsantrag  126

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c i (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ci) Sensibilisierung der Anbieter und Nutzer sowie Bereitstellung von Anleitungen für sie in Bezug auf die Erfüllung der Anforderung, Instrumente bereitzustellen und Maßnahmen zu treffen, um im Einklang mit Artikel 4b für ausreichende Kompetenzen im Bereich künstliche Intelligenz zu sorgen;

Änderungsantrag  127

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c j (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cj) Leisten eines Beitrags zu den Bemühungen der Union um die Zusammenarbeit mit Drittländern und internationalen Organisationen, um auf einen gemeinsamen globalen Ansatz für vertrauenswürdige KI hinzuwirken;

Änderungsantrag  128

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c k (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ck) Erstellung jährlicher Berichte über die Durchführung dieser Verordnung, einschließlich einer Bewertung ihrer Auswirkungen auf Wirtschaftsakteure.

Änderungsantrag  129

 

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c l (neu)

 

Vorschlag der Kommission

Geänderter Text

 

cl) Bereitstellung von Leitlinien für die Steuerung der Forschung und Entwicklung.

Änderungsantrag  130

 

Vorschlag für eine Verordnung

Artikel 59 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Benennung der zuständigen nationalen Behörden

Benennung der nationalen Aufsichtsbehörden

Änderungsantrag  131

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Um die Anwendung und Durchführung dieser Verordnung sicherzustellen, werden von jedem Mitgliedstaat zuständige nationale Behörden eingerichtet oder benannt. Die notifizierenden Behörden werden so organisiert, dass bei der Ausübung ihrer Tätigkeiten und der Wahrnehmung ihrer Aufgaben Objektivität und Unparteilichkeit gewahrt sind.

(1) Jeder Mitgliedstaat errichtet oder benennt eine nationale Aufsichtsbehörde, die so organisiert ist, dass bei der Ausübung ihrer Tätigkeiten und der Wahrnehmung ihrer Aufgaben Objektivität und Unparteilichkeit gewahrt sind.

Änderungsantrag  132

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Jeder Mitgliedstaat benennt aus der Reihe der zuständigen nationalen Behörden eine nationale Aufsichtsbehörde. Die nationale Aufsichtsbehörde fungiert als notifizierende Behörde und als Marktüberwachungsbehörde, es sei denn, der Mitgliedstaat hat organisatorische und administrative Gründe, um mehr als eine Behörde zu benennen.

(2) Die nationale Aufsichtsbehörde ist dafür verantwortlich, die Anwendung und Umsetzung dieser Verordnung sicherzustellen. Hinsichtlich der Hochrisiko-AI-Systeme, die sich auf Produkte beziehen, für die die in Anhang II aufgeführten Rechtsakte gelten, führen die nach diesen Rechtsakten benannten zuständigen Behörden weiterhin die Verwaltungsverfahren durch. Soweit ein Fall jedoch Aspekte betrifft, die unter diese Verordnung fallen, sind die zuständigen Behörden an die von der gemäß dieser Verordnung benannten nationalen Aufsichtsbehörde erlassenen Maßnahmen gebunden. Die nationale Aufsichtsbehörde fungiert auch als notifizierende Behörde und als Marktüberwachungsbehörde.

Änderungsantrag  133

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Mitgliedstaaten teilen der Kommission ihre Benennung oder Benennungen sowie gegebenenfalls ihre Gründe für die Benennung von mehr als einer Behörde mit.

(3) Die zuständige nationale Behörde ist in jedem Mitgliedstaat die federführende Behörde, sorgt für eine angemessene Koordinierung und dient im Hinblick auf diese Verordnung als zentrale Anlaufstelle. Die Mitgliedstaaten teilen der Kommission ihre Benennungen mit. Darüber hinaus sollte die zentrale Anlaufstelle jedes Mitgliedstaats über elektronische Kommunikationsmittel erreichbar sein.

Änderungsantrag  134

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Mitgliedstaaten sorgen dafür, dass die zuständigen nationalen Behörden mit angemessenen finanziellen und personellen Ressourcen ausgestattet werden, damit sie ihre Aufgaben im Rahmen dieser Verordnung wahrnehmen können. Insbesondere müssen die zuständigen nationalen Behörden ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten und Datenverarbeitung, der Grundrechte, der Gesundheits- und Sicherheitsrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen.

(4) Die Mitgliedstaaten sorgen dafür, dass die nationale Aufsichtsbehörde mit angemessenen finanziellen und personellen Ressourcen ausgestattet wird, damit sie ihre Aufgaben im Rahmen dieser Verordnung wahrnehmen kann. Insbesondere müssen die nationalen Aufsichtsbehörden ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten, des Datenschutzes und der Datenverarbeitung, der Cybersicherheit, des Wettbewerbsrechts, der Grundrechte, der Gesundheits- und Sicherheitsrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen.

Änderungsantrag  135

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Die nationale zuständige Behörde erfüllt die für als Betreiber wesentlicher Dienste eingestuften Einrichtungen der öffentlichen Verwaltung festgelegten Mindestanforderungen an die Cybersicherheit gemäß der Richtlinie (...) über Maßnahmen für ein hohes gemeinsames Cybersicherheitsniveau in der Union und zur Aufhebung der Richtlinie (EU) 2016/1148.

Änderungsantrag  136

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4b) Alle Informationen und Unterlagen, in deren Besitz eine nationale Aufsichtsbehörde auf der Grundlage dieses Artikels gelangt, werden im Einklang mit den in Artikel 70 festgelegten Vertraulichkeitspflichten behandelt.

Änderungsantrag  137

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Die Mitgliedstaaten übermitteln der Kommission jährlich einen Bericht über den Stand der finanziellen und personellen Ressourcen der zuständigen nationalen Behörden, in dem sie auch deren Angemessenheit bewerten. Die Kommission leitet diese Informationen an den Ausschuss zur Erörterung und etwaigen Abgabe von Empfehlungen weiter.

(5) Die Mitgliedstaaten übermitteln der Kommission jährlich einen Bericht über den Stand der finanziellen und personellen Ressourcen der nationalen Aufsichtsbehörde, in dem sie auch deren Angemessenheit bewerten. Die Kommission leitet diese Informationen an den Ausschuss zur Erörterung und etwaigen Abgabe von Empfehlungen weiter.

Änderungsantrag  138

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Die Kommission fördert den Erfahrungsaustausch zwischen den zuständigen nationalen Behörden.

(6) Die Kommission und der Ausschuss fördern den Erfahrungsaustausch zwischen den nationalen Aufsichtsbehörden.

Änderungsantrag  139

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 7

 

Vorschlag der Kommission

Geänderter Text

(7) Die zuständigen nationalen Behörden können insbesondere auch Kleinanbietern mit Orientierung und Rat bei der Anwendung dieser Verordnung zur Seite stehen. Wenn zuständige nationale Behörden beabsichtigen, Orientierung und Rat in Bezug auf KI-Systeme in Bereichen zu geben, die unter andere Rechtsvorschriften der Union fallen, so sind gegebenenfalls die nach jenen Unionsvorschriften dafür zuständigen nationalen Behörden zu konsultieren. Mitgliedstaaten können auch eine zentrale Kontaktstelle für die Kommunikation mit den Akteuren einrichten.

(7) Die nationalen Aufsichtsbehörden können insbesondere auch KMU und Start-up-Unternehmen mit Orientierung und Rat bei der Anwendung dieser Verordnung zur Seite stehen, solange dies nicht im Widerspruch zu den Leitlinien und Ratschlägen des Ausschusses oder der Kommission steht. Wenn zuständige Aufsichtsbehörden beabsichtigen, Orientierung und Rat in Bezug auf KI-Systeme in Bereichen zu geben, die unter andere Rechtsvorschriften der Union fallen, so sind gegebenenfalls die nach jenen Unionsvorschriften dafür zuständigen nationalen Behörden zu konsultieren.

Änderungsantrag  140

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 8

 

Vorschlag der Kommission

Geänderter Text

(8) Soweit Organe, Einrichtungen und sonstige Stellen der Union in den Anwendungsbereich dieser Verordnung fallen, übernimmt der Europäische Datenschutzbeauftragte die Funktion der für ihre Beaufsichtigung zuständigen Behörde.

(8) Soweit Organe, Einrichtungen und sonstige Stellen der Union in den Anwendungsbereich dieser Verordnung fallen, übernimmt der Europäische Datenschutzbeauftragte die Funktion der für ihre Beaufsichtigung und die Koordinierung zuständigen Behörde.

Änderungsantrag  141

 

Vorschlag für eine Verordnung

Artikel 59 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 59a

 

Kohärenzverfahren für grenzüberschreitende Fälle

 

(1) Jede nationale Aufsichtsbehörde nimmt die ihr gemäß dieser Verordnung übertragenen Aufgaben und Befugnisse im Hoheitsgebiet ihres eigenen Mitgliedstaats wahr.

 

(2) In grenzüberschreitenden Fällen, an denen zwei oder mehr nationale Aufsichtsbehörden beteiligt sind, gilt die nationale Aufsichtsbehörde des Mitgliedstaats, in dem sich der Ort der Hauptverwaltung des Anbieters oder Nutzers in der Union befindet oder in dem der bevollmächtigte Vertreter benannt ist, als federführende nationale Aufsichtsbehörde für grenzüberschreitende Fälle, an denen ein KI-System beteiligt ist.

 

(3) In dem in Absatz 2 genannten Fall arbeiten die nationalen Aufsichtsbehörden zusammen, tauschen alle einschlägigen Informationen rechtzeitig untereinander aus, unterstützen sich gegenseitig und führen gemeinsame Maßnahmen durch. Die nationalen Aufsichtsbehörden arbeiten zusammen, um einen Konsens zu erzielen.

 

(4) Im Falle einer schwerwiegenden Meinungsverschiedenheit zwischen zwei oder mehr nationalen Aufsichtsbehörden benachrichtigt die federführende nationale Aufsichtsbehörde den Ausschuss und übermittelt ihm unverzüglich alle mit dem Fall zusammenhängenden zweckdienlichen Informationen.

 

(5) Der Ausschuss gibt binnen drei Monaten nach Erhalt der in Absatz 4 genannten Benachrichtigung einen verbindlichen Beschluss gegenüber den nationalen Aufsichtsbehörden ab.

Änderungsantrag  142

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 1 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Diese Meldung erfolgt unmittelbar, nachdem der Anbieter den kausalen Zusammenhang zwischen dem KI-System und dem Vorfall bzw. der Fehlfunktion oder die naheliegende Wahrscheinlichkeit eines solchen Zusammenhangs festgestellt hat, oder auf jeden Fall spätestens 15 Tage, nachdem der Anbieter Kenntnis von diesem schwerwiegenden Vorfall oder der Fehlfunktion erlangt hat.

Diese Meldung erfolgt ohne ungebührliche Verzögerung, nachdem der Anbieter den kausalen Zusammenhang zwischen dem KI-System und dem schwerwiegenden Vorfall bzw. der Fehlfunktion oder die naheliegende Wahrscheinlichkeit eines solchen Zusammenhangs festgestellt hat, oder auf jeden Fall spätestens 72 Stunden, nachdem der Anbieter Kenntnis von diesem schwerwiegenden Vorfall oder der Fehlfunktion erlangt hat.

 

Änderungsantrag  143

 

Vorschlag für eine Verordnung

Artikel 62 – Absatz 1 – Unterabsatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Eine Meldung gemäß diesem Artikel ist nicht erforderlich, wenn die Anbieter den schwerwiegenden Vorfall oder die Fehlfunktion auch melden müssen, um Verpflichtungen aus anderen Rechtsakten der Union nachzukommen. In diesem Fall leiten die nach diesen Rechtsakten der Union zuständigen Behörden die eingegangene Meldung an die gemäß dieser Verordnung benannte nationale Aufsichtsbehörde weiter.

Änderungsantrag  144

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Kommission und die Mitgliedstaaten fördern und erleichtern die Aufstellung von Verhaltenskodizes, mit denen erreicht werden soll, dass die in Titel III Kapitel 2 genannten Anforderungen auf KI-Systeme Anwendung finden, die kein hohes Risiko bergen, und zwar auf der Grundlage technischer Spezifikationen und Lösungen, die geeignet sind, die Einhaltung dieser Anforderungen mit Blick auf die Zweckbestimmung der Systeme zu gewährleisten.

(1) Die Kommission, der Ausschuss und die Mitgliedstaaten fördern und erleichtern die Aufstellung von Verhaltenskodizes, mit denen erreicht werden soll, dass die in Titel III Kapitel 2 genannten Anforderungen auf KI-Systeme Anwendung finden, die kein hohes Risiko bergen, auch wenn die Verhaltenskodizes aufgestellt werden, um aufzuzeigen, inwiefern KI-Systeme die in Artikel 4a dargelegten Grundsätze achten und somit als vertrauenswürdig erachtet werden können, und zwar auf der Grundlage technischer Spezifikationen und Lösungen, die geeignet sind, die Einhaltung dieser Anforderungen mit Blick auf die Zweckbestimmung der Systeme zu gewährleisten.

Änderungsantrag  145

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Kommission und der Ausschuss fördern und erleichtern die Aufstellung von Verhaltenskodizes, mit denen erreicht werden soll, dass KI-Systeme freiwillig weitere Anforderungen erfüllen, die sich beispielsweise auf die ökologische Nachhaltigkeit, die barrierefreie Zugänglichkeit für Personen mit Behinderungen, die Beteiligung von Interessenträgern an der Konzeption und Entwicklung von KI-Systemen und die Vielfalt der Entwicklungsteams beziehen, wobei die Erreichung dieser Ziele anhand klarer Vorgaben und wesentlicher Leistungsindikatoren gemessen wird.

(2) In Verhaltenskodizes, mit denen erreicht werden soll, dass die Grundsätze für vertrauenswürdige KI-Systeme freiwillig erfüllt werden, muss insbesondere

 

a) das Ziel verfolgt werden, dass das Personal und andere Personen, die mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an Kompetenzen im Bereich KI verfügen, um diese Grundsätze zu wahren;

 

b) bewertet werden, in welchem Umfang sich ihre KI-Systeme auf schutzbedürftige Personen oder Personengruppen, darunter Kinder, ältere Menschen, Migranten und Menschen mit Behinderungen, auswirken können und welche Maßnahmen ergriffen werden können, um die Zugänglichkeit zu verbessern oder um diese Personen oder Personengruppen auf andere Weise zu unterstützen;

 

c) berücksichtigt werden, wie sich die Nutzung ihrer KI-Systeme auf die Vielfalt, das Geschlechterverhältnis und die Gleichstellung auswirken oder diese verbessern kann;

 

d) darauf geachtet werden, ob die KI-Systeme in einer Weise genutzt werden können, die direkt oder indirekt bestehende Voreingenommenheit oder Ungleichheiten nachhaltig oder erheblich verstärken kann;

 

e) abgewogen werden, ob es erforderlich und wichtig ist, über vielfältige Entwicklungsteams zu verfügen, um eine inklusive Gestaltung ihrer Systeme sicherzustellen;

 

f) sorgfältig abgewogen werden, ob die Systeme negative gesellschaftliche Auswirkungen haben können, insbesondere in Bezug auf politische Institutionen und demokratische Prozesse;

 

g) bewertet werden, wie KI-Systeme zur ökologischen Nachhaltigkeit und insbesondere zu den Verpflichtungen im Rahmen des europäischen Grünen Deals und der Europäischen Erklärung zu den digitalen Rechten und Grundsätzen beitragen können.

Änderungsantrag  146

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Verhaltenskodizes können von einzelnen KI-System-Anbietern oder von Interessenvertretungen dieser Anbieter oder von beiden aufgestellt werden, auch unter Einbeziehung von Nutzern und Interessenträgern sowie deren Interessenvertretungen. Verhaltenskodizes können sich auf mehrere KI-Systeme erstrecken, um ähnlichen Zweckbestimmungen der jeweiligen Systeme Rechnung zu tragen.

(3) Verhaltenskodizes können von einzelnen Anbietern von KI-Systemen oder von deren Interessenvertretungen oder von beiden aufgestellt werden, auch unter Einbeziehung von Nutzern und Interessenträgern, einschließlich Wissenschaftlern, sowie deren Interessenvertretungen, insbesondere Gewerkschaften und Verbraucherorganisationen. Verhaltenskodizes können sich auf mehrere KI-Systeme erstrecken, um ähnlichen Zweckbestimmungen der jeweiligen Systeme Rechnung zu tragen. Anbieter, die Verhaltenskodizes annehmen, benennen mindestens eine natürliche Person, die für die interne Überwachung verantwortlich ist.

Änderungsantrag  147

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Kommission und der Ausschuss berücksichtigen die besonderen Interessen und Bedürfnisse von Kleinanbietern und Startups bei der Förderung und Erleichterung der Aufstellung von Verhaltenskodizes.

(4) Die Kommission und der Ausschuss berücksichtigen die besonderen Interessen und Bedürfnisse von KMU und Start-up-Unternehmen bei der Förderung und Erleichterung der Aufstellung von Verhaltenskodizes.

Änderungsantrag  148

 

Vorschlag für eine Verordnung

Artikel 69 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 69a

 

Recht auf Beschwerde bei einer Aufsichtsbehörde

 

(1) Unbeschadet anderer verwaltungsrechtlicher oder gerichtlicher Rechtsbehelfe hat jede natürliche oder juristische Person das Recht, eine Beschwerde bei einer Aufsichtsbehörde, insbesondere in dem Mitgliedstaat ihres gewöhnlichen Aufenthalts, ihres Arbeitsplatzes oder des Orts des mutmaßlichen Verstoßes, einzureichen, wenn sie der Ansicht ist, dass ihre Gesundheit, ihre Sicherheit, ihre Grundrechte, ihr Recht auf Erläuterung oder andere Rechte, die sich aus den in dieser Verordnung festgelegten Verpflichtungen ergeben, durch einen in den Anwendungsbereich dieser Verordnung fallenden Anbieter oder Nutzer eines KI-Systems verletzt wurden. Diese Beschwerde kann im Wege einer Verbandsklage zum Schutz der Kollektivinteressen der Verbraucher gemäß der Richtlinie (EU) 2020/1828 erhoben werden.

 

(2) Natürliche oder juristische Personen haben das Recht, im Beschwerdeverfahren und im Rahmen aller von der nationalen Aufsichtsbehörde infolge ihrer Beschwerde angestellten Untersuchungen angehört zu werden.

 

(3) Die nationale Aufsichtsbehörde, bei der die Beschwerde eingereicht wurde, unterrichtet die Beschwerdeführer über den Fortgang und den Ausgang der Beschwerde. Insbesondere ergreift die nationale Aufsichtsbehörde alle erforderlichen Maßnahmen, um den bei ihr eingegangenen Beschwerden nachzugehen, und gibt dem Beschwerdeführer innerhalb von drei Monaten nach Eingang einer Beschwerde eine vorläufige Antwort, in der sie die von ihr beabsichtigten Maßnahmen und ggf. die nächsten Schritte in dem Verfahren angibt.

 

(4) Die nationale Aufsichtsbehörde entscheidet über die Beschwerde und unterrichtet den Beschwerdeführer unverzüglich, spätestens jedoch sechs Monate nach Eingang der Beschwerde, über den Fortgang und das Ergebnis der Beschwerde, einschließlich der Möglichkeit eines gerichtlichen Rechtsbehelfs nach Artikel 68b.

Änderungsantrag  149

 

Vorschlag für eine Verordnung

Artikel 69 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 69b

 

Recht auf einen wirksamen gerichtlichen Rechtsbehelf gegen eine nationale Aufsichtsbehörde

 

(1) Jede natürliche oder juristische Person hat unbeschadet anderer verwaltungsrechtlicher oder außergerichtlicher Rechtsbehelfe das Recht auf einen wirksamen gerichtlichen oder außergerichtlichen Rechtsbehelf, einschließlich Reparatur, Ersatzleistung, Preisminderung, Vertragsauflösung, Erstattung des gezahlten Preises oder Ersatz des materiellen und immateriellen Schadens, gegen einen sie betreffenden rechtsverbindlichen Beschluss einer Aufsichtsbehörde, der ihre Rechte verletzt.

 

(2) Jede betroffene Person hat unbeschadet anderer verwaltungsrechtlicher oder außergerichtlicher Rechtsbehelfe das Recht auf einen wirksamen gerichtlichen Rechtsbehelf, wenn die nationale Aufsichtsbehörde eine Beschwerde nicht bearbeitet, den Beschwerdeführer nicht innerhalb von drei Monaten gemäß Artikel 68a Absatz 3 über den Fortgang und das vorläufige Ergebnis der eingereichten Beschwerde unterrichtet oder ihrer Verpflichtung, gemäß Artikel 68a Absatz 4 innerhalb von sechs Monaten zu einer endgültigen Entscheidung über die Beschwerde zu gelangen, oder ihren Verpflichtungen nach Artikel 65 nicht nachkommt.

 

(3) Für Verfahren gegen eine Aufsichtsbehörde sind die Gerichte des Mitgliedstaats zuständig, in dem die nationale Aufsichtsbehörde ihren Sitz hat.

Änderungsantrag  150

 

Vorschlag für eine Verordnung

Artikel 69 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 69c

 

Recht auf Erläuterung

 

(1) Personen, die von einer Entscheidung betroffen sind, die ein Anbieter oder Nutzer auf der Grundlage von Daten aus einem in den Anwendungsbereich dieser Verordnung fallenden KI-System getroffen hat und die rechtliche Auswirkungen hat, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit, ihre Grundrechte, ihr sozioökonomisches Wohlergehen oder andere Rechte, die sich aus den in dieser Verordnung festgelegten Verpflichtungen ergeben, beeinträchtigt, erhalten vom Anbieter oder Nutzer zum Zeitpunkt der Mitteilung der Entscheidung eine klare und aussagekräftige Erläuterung gemäß Artikel 13 Absatz 1 zur Rolle des KI-Systems im Entscheidungsprozess, zu den wichtigsten Parametern der getroffenen Entscheidung und zu den zugehörigen Eingabedaten.

 

(2) Absatz 1 gilt nicht für die Verwendung von KI-Systemen,

 

a) für die sich Ausnahmen von oder Beschränkungen der Verpflichtung nach Absatz 1 aus dem Unionsrecht oder nationalen Recht ergeben, das andere angemessene Garantien für die Rechte und Freiheiten und berechtigten Interessen der betroffenen Personen vorsieht; oder

 

b) wenn die betroffene Person aus freien Stücken, ausdrücklich, spezifisch und in Kenntnis der Sachlage zugestimmt hat, keine Erläuterung zu erhalten. Die betroffene Person hat das Recht, ihre Einwilligung, zu keinem Zeitpunkt eine Erläuterung zu erhalten, zu widerrufen. Die betroffene Person wird vor Abgabe der Einwilligung hiervon in Kenntnis gesetzt. Der Widerruf der Einwilligung muss so einfach wie die Erteilung der Einwilligung sein.

Änderungsantrag  151

 

Vorschlag für eine Verordnung

Artikel 69 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 69d

 

Verbandsklagen

 

(1) Anhang I der Richtlinie (EU) 2020/1828 über Verbandsklagen zum Schutz der Kollektivinteressen der Verbraucher erhält folgenden Zusatz:

 

„Verordnung xxxx/xxxx des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union“.

Änderungsantrag  152

 

Vorschlag für eine Verordnung

ÜBERSCHRIFT X – Überschrift

 

Vorschlag der Kommission

Geänderter Text

VETRAULICHKEIT UND SANKTIONEN

VERTRAULICHKEIT, RECHTSBEHELFE UND SANKTIONEN

Änderungsantrag  153

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Die Kommission bewertet innerhalb von [drei Jahren nach dem in Artikel 85 Absatz2 genannten Geltungsbeginn dieser Verordnung] die Wirksamkeit des Ausschusses bei der Wahrnehmung seiner Aufgaben und beurteilt, ob eine EU-Agentur am besten in der Lage wäre, eine wirksame und harmonisierte Durchführung dieser Verordnung sicherzustellen.

Änderungsantrag  154

Vorschlag für eine Verordnung

Anhang VIII – Nummer 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

5a. das Ergebnis der Bewertung der Vertrauenswürdigkeit der Technologie;

 

 


VERFAHREN DES MITBERATENDEN AUSSCHUSSES

Titel

Harmonisierte Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und Änderung bestimmter Rechtsakte der Union

Bezugsdokumente – Verfahrensnummer

COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)

Federführende Ausschüsse

 Datum der Bekanntgabe im Plenum

IMCO

7.6.2021

LIBE

7.6.2021

 

 

Stellungnahme von

 Datum der Bekanntgabe im Plenum

JURI

7.6.2021

Assoziierte Ausschüsse - datum der bekanntgabe im plenum

16.12.2021

Verfasser(in) der Stellungnahme

 Datum der Benennung

Axel Voss

10.1.2022

Artikel 58 – Gemeinsames Ausschuss¬verfahren

 Datum der Bekanntgabe im Plenum

 

 

16.12.2021

Prüfung im Ausschuss

26.1.2022

15.3.2022

28.3.2022

 

Datum der Annahme

5.9.2022

 

 

 

Ergebnis der Schlussabstimmung

+:

–:

0:

17

1

0

 


 

NAMENTLICHE SCHLUSSABSTIMMUNG IM MITBERATENDEN AUSSCHUSS

17

+

ID

Jean-François Jalkh

NI

Sabrina Pignedoli

PPE

Pascal Arimont, Angelika Niebler, Luisa Regimenti, Axel Voss, Elissavet Vozemberg-Vrionidi, Marion Walsmann, Javier Zarzalejos

RENEW

Ilana Cicurel, Pascal Durand, Karen Melchior, Adrián Vázquez Lázara

S&D

René Repasi, Tiemo Wölken, Lara Wolters

VERTS/ALE

Heidi Hautala

 

1

-

THE LEFT

Cornelia Ernst

 

0

0

 

 

 

Erklärung der benutzten Zeichen:

+ : dafür

- : dagegen

0 : Enthaltung

 


STELLUNGNAHME DES AUSSCHUSSES FÜR UMWELTFRAGEN, ÖFFENTLICHE GESUNDHEIT UND LEBENSMITTELSICHERHEIT (22.4.2022)

für den Ausschuss für Binnenmarkt und Verbraucherschutz und den Ausschuss für bürgerliche Freiheiten, Justiz und Inneres

zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union

(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))

Verfasserin der Stellungnahme: Susana Solís Pérez

 

 

KURZE BEGRÜNDUNG

Der Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (im Folgenden „KI-Gesetz“) ist Teil einer umfassenderen Agenda, die darauf abzielt, Europa im digitalen Zeitalter voranzubringen und seine Umwelt- und Klimaziele zu verwirklichen. Dem liegt zugrunde, dass KI derzeit bei allen Aspekten des Alltagslebens in Europa eine Rolle spielt.

 

KI-Systeme werden zunehmend in Produkte und Dienstleistungen integriert, weshalb ein horizontaler legislativer Ansatz, wie er mit dem KI-Gesetz verfolgt wird, erforderlich ist. Die Verfasserin der Stellungnahme ist voll und ganz mit dieser Vorgehensweise einverstanden, da sie der Ansicht ist, dass gemeinsame Regeln festgelegt werden müssen, um einen bereichsübergreifenden Ansatz für alle Sektoren, einschließlich des Gesundheitswesens, zu schaffen. Die Europäische Union erhält auf diese Weise die Chance, im Bereich der KI eine führende Rolle einzunehmen und weltweit Standards zu setzen, wie es ihr bereits auf dem Gebiet des Datenschutzes mit der Verabschiedung der Datenschutzgrundverordnung gelang. Die EU könnte auch weltweit führend in Nischensektoren werden, die eine sehr vorausschauende Perspektive wie die Regulierung neurologischer Rechte erfordern.

 

Insgesamt sollte das KI-Gesetz die europäischen Werte wahren, die Verteilung der mit der KI verbundenen Vorteile auf die gesamte Gesellschaft erleichtern, Einzelpersonen, Unternehmen und die Umwelt vor Risiken schützen und gleichzeitig Innovation und Beschäftigung fördern und Europa eine Führungsrolle in diesem Bereich verschaffen.

 

In diesem Zusammenhang ist zu betonen, wie wichtig Reallabore in bestimmten Bereichen (z. B. Gesundheit) sind und wie sie auf andere Bereiche wie Krankenhäuser, Gesundheitsbehörden und Forschungszentren ausgeweitet werden könnten, um in allen Mitgliedstaaten und auf EU-Ebene die führende Stellung des Gesundheitssystems zu stärken und auszubauen. Gesundheit bedeutet Wohlstand. Durch den Einsatz von KI im Gesundheitswesen unter Verwendung interoperabler Gesundheitsdaten könnten wir diesen Wohlstand weiter steigern, und zwar über die Gesundheitssysteme hinaus zum Vorteil der Gesellschaft insgesamt. Hervorzuheben sind ferner die potenziellen Auswirkungen von KI-Systemen auf die psychische Gesundheit.

 

Die Verfasserin der Stellungnahme ist der Auffassung, dass im Vorschlag nicht hinreichend auf die Risiken eingegangen wird, die sich aus dem Fehlen eines gemeinsamen und kohärenten Regulierungskonzepts ergeben können.

 

Da es sich um eine horizontale Gesetzgebungsinitiative handelt, ist davon auszugehen, dass sich das vorgeschlagene KI-Gesetz mit mehreren derzeit geltenden Verordnungen (z. B. der Datenschutzgrundverordnung oder der Medizinprodukteverordnung) und mehreren künftigen Gesetzgebungsinitiativen, wie der Initiative zum Europäischen Raum für Gesundheitsdaten, überschneiden wird. All diese Initiativen sollten mit dem KI-Gesetz in Einklang gebracht werden, um einen gemeinsamen und kohärenten Regulierungsansatz sicherzustellen und Doppelarbeit oder eine ungenügende Koordinierung zwischen den Stellen und Behörden sowohl auf EU-Ebene als auch auf Ebene der Mitgliedstaaten zu verhindern.

 

Die Verfasserin der Stellungnahme ist besorgt darüber, dass das KI-Gesetz keinen ausreichenden Schutz der Umwelt vorsieht.

 

Aus der 2021 veröffentlichten Eurobarometer-Sonderumfrage 513 „Klimawandel“ geht hervor, dass die Bewältigung der klima- und umweltbezogenen Herausforderungen zu den wichtigsten Anliegen der europäischen Bürgerinnen und Bürger zählt. Daher sollte die Umwelt im Gesetz über künstliche Intelligenz zu den Bereichen hinzugefügt werden, die ein hohes Schutzniveau erfordern. Daher wurde die Umwelt zusammen mit der Gesundheit, der Sicherheit und dem Schutz der Grundrechte in sämtliche Erwägungsgründe und Artikel aufgenommen. Dies hat zur Folge, dass alle Systeme, die erhebliche negative Auswirkungen auf die Umwelt haben können, als „Hochrisiko-KI “ eingestuft werden. Gleichzeitig hat die Verfasserin das im Übereinkommen von Århus vorgesehene Recht auf einen ordnungsgemäßen Rechtsbehelf im Falle negativer Umweltauswirkungen gestärkt und den in der Taxonomieverordnung festgelegten Grundsatz der Vermeidung erheblicher Beeinträchtigungen als Obergrenze festgelegt, um sicherzustellen, dass KI-Systeme den hohen Standards und rechtlichen Vorgaben der EU im Umweltbereich genügen.

 

Die Verfasserin der Stellungnahme ist der Ansicht, dass das KI-Gesetz nicht nur die Nutzer erfassen sollte, sondern sein Anwendungsbereich auch auf die Endempfänger ausgedehnt werden muss.

Viele der in dem vorgeschlagenen KI-Gesetz genannten Anwendungen werden nicht nur Nutzer, sondern auch Endempfänger betreffen. Bei Anwendungen im Gesundheitswesen ist diese Unterscheidung von entscheidender Bedeutung, da klar zwischen dem Verwendungszweck und den Fähigkeiten von Patienten und Ärzten unterschieden wird. Daher enthält der Berichtsentwurf nun eine neue Definition des Begriffs „Endempfänger“ und garantiert Endempfängern ein angemessenes Maß an Transparenz sowie die Bereitstellung spezifischer Informationen.


ÄNDERUNGSANTRÄGE

Der Ausschuss für Umweltfragen, öffentliche Gesundheit und Lebensmittelsicherheit ersucht den federführenden Ausschuss für Binnenmarkt und Verbraucherschutz, folgende Änderungsanträge zu berücksichtigen:

Änderungsantrag  1

Vorschlag für eine Verordnung

Erwägung 1

 

Vorschlag der Kommission

Geänderter Text

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union festgelegt wird. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit und der Grundrechte, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen für die Konzeption, Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz und nachhaltiger sowie grüner künstlicher Intelligenz im Einklang mit den Prioritäten und den Werten der Union festgelegt wird, wobei gleichzeitig das Risiko nachteiliger und diskriminierender Auswirkungen auf Menschen und nachteiliger Auswirkungen auf die Umwelt so gering wie möglich bleiben sollen. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der biologischen Vielfalt, des Klimas und der Umwelt, der Gesundheit, der Sicherheit und der Grundrechte, und gewährleistet  den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen , wodurch verhindert wird, dass die Mitgliedstaaten die Konzeption, Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

Änderungsantrag  2

Vorschlag für eine Verordnung

Erwägung 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Diese Verordnung sollte als Grundlage für die Förderung der Gesundheit, des Wohlergehens, der Prävention von Krankheiten und der Schaffung eines förderlichen Umfelds für eine gesündere Lebensweise auf nachhaltige und klimaneutrale Weise dienen und insbesondere die Verwirklichung der Ziele der Vereinten Nationen für nachhaltige Entwicklung, des Übereinkommens von Paris und des Übergangs zur Klimaneutralität bis 2050 in verschiedenen Wirtschaftszweigen erleichtern. Die Mitgliedstaaten können zusätzliche Anforderungen festlegen, die über die in dieser Verordnung festgelegten Anforderungen hinausgehen, sofern sie aus Gründen des öffentlichen Interesses, des Schutzes von Rechtsansprüchen, des Klima- und Umweltschutzes und der biologischen Vielfalt gerechtfertigt sind.

Änderungsantrag  3

Vorschlag für eine Verordnung

Erwägung 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1b) Mit dieser Verordnung sollen die Werte der Union gewahrt werden, indem die Vorteile der künstlichen Intelligenz der gesamten Gesellschaft zugutekommen und Einzelpersonen, Unternehmen und die Umwelt vor Risiken geschützt werden, während gleichzeitig Innovation und Beschäftigung gefördert werden und die Union auf diesem Gebiet eine führende Rolle einnimmt.

Änderungsantrag  4

Vorschlag für eine Verordnung

Erwägung 2

 

Vorschlag der Kommission

Geänderter Text

(2) Systeme der künstlichen Intelligenz (KI-Systeme) können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit künstliche Intelligenz sicher ist und unter Einhaltung der Grundrechte entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und würden die Rechtssicherheit für Akteure, die KI-Systeme entwickeln oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, wobei Unterschiede, die den freien Verkehr von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Verpflichtungen auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird. Soweit diese Verordnung konkrete Vorschriften zum Schutz von Privatpersonen im Hinblick auf die Verarbeitung personenbezogener Daten enthält, mit denen vor allem die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eingeschränkt wird, sollte sich diese Verordnung in Bezug auf diese konkreten Vorschriften auch auf Artikel 16 AEUV stützen. Angesichts dieser konkreten Vorschriften und des Rückgriffs auf Artikel 16 AEUV ist es angezeigt, den Europäischen Datenschutzausschuss zu konsultieren.

(2) Systeme der künstlichen Intelligenz (KI-Systeme) können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit künstliche Intelligenz sicher ist und unter Einhaltung der Grundrechte entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und würden die Rechtssicherheit für Akteure, die KI-Systeme entwickeln oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, wobei Unterschiede, die den freien Verkehr von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Verpflichtungen auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen, Endnutzern und Endempfängern im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird. Soweit diese Verordnung konkrete Vorschriften zum Schutz von Privatpersonen im Hinblick auf die Verarbeitung personenbezogener Daten enthält, mit denen vor allem die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eingeschränkt wird, sollte sich diese Verordnung in Bezug auf diese konkreten Vorschriften auch auf Artikel 16 AEUV stützen. Angesichts dieser konkreten Vorschriften und des Rückgriffs auf Artikel 16 AEUV ist es angezeigt, den Europäischen Datenschutzausschuss zu konsultieren.

Änderungsantrag  5

Vorschlag für eine Verordnung

Erwägung 3

 

Vorschlag der Kommission

Geänderter Text

(3) Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, allgemeine und berufliche Bildung, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz sowie Klimaschutz und Anpassung an den Klimawandel.

(3) Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft, Umwelt und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Lebensmittelsicherheit durch die Verringerung des Einsatzes von Pestiziden, Naturschutz, Erhaltung und Wiederherstellung der biologischen Vielfalt und der Ökosysteme, Umweltüberwachung, Zugang zu und Bereitstellung von Arzneimitteln und Gesundheitsversorgung – auch im Bereich der psychischen Gesundheit –, klimaeffiziente Landwirtschaft, allgemeine und berufliche Bildung, Infrastrukturmanagement, Krisenmanagement, Bewältigung von Naturkatastrophen, Energie, nachhaltiger Verkehr und nachhaltige Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz sowie Klimaschutz und Anpassung an den Klimawandel.

Änderungsantrag  6

Vorschlag für eine Verordnung

Erwägung 4

 

Vorschlag der Kommission

Geänderter Text

(4) Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und öffentliche Interessen und Rechte schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein.

(4) Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und öffentliche Interessen und Rechte schädigen, die durch das Unionsrecht geschützt sind, seien sie individueller, gesellschaftlicher oder ökologischer Art. Ein solcher Schaden kann materieller oder immaterieller Art sein und bereits entstanden sein oder erst in Zukunft entstehen.

Änderungsantrag  7

Vorschlag für eine Verordnung

Erwägung 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) In ihrem Weißbuch „Künstliche Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ vom 19. Februar 2020 wies die Kommission darauf hin, dass künstliche Intelligenz dazu beitragen kann, Lösungen für einige der dringendsten gesellschaftlichen Herausforderungen zu finden, wie etwa die Bekämpfung des Klimawandels, des Verlusts an biologischer Vielfalt und der Umweltzerstörung, und hebt die potenziellen Vorteile und Risiken der künstlichen Intelligenz im Hinblick auf die Sicherheit, die Gesundheit und das Wohlergehen der Menschen hervor.

Änderungsantrag  8

Vorschlag für eine Verordnung

Erwägung 4 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4b) Die Bewältigung des Klimawandels und der umweltbezogenen Herausforderungen sowie die Verwirklichung der Ziele des Übereinkommens von Paris stehen im Mittelpunkt der Mitteilung mit dem Titel „Der europäische Grüne Deal“, die am 11. Dezember 2019 verabschiedet wurde und in der die Kommission auf die Rolle von digitalen Technologien wie künstlicher Intelligenz, 5G, Cloud-Computing und Edge-Computing und dem Internet der Dinge im Hinblick auf die Verwirklichung einer nachhaltigen Zukunft sowie die Beschleunigung und Maximierung der Wirkung von Maßnahmen zur Eindämmung des Klimawandels und zur Anpassung an den Klimawandel, zum Schutz der Umwelt und zur Eindämmung des Rückgangs der biologischen Vielfalt hingewiesen hat.

 

Änderungsantrag  9

Vorschlag für eine Verordnung

Erwägung 4 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4c) KI-Anwendungen können ökologische und wirtschaftliche Vorteile mit sich bringen und Prognosekapazitäten stärken, die zur Bekämpfung des Klimawandels, zur Verwirklichung der Ziele für nachhaltige Entwicklung und zur Erreichung des Ziels beitragen, Europa zum ersten klimaneutralen Kontinent zu machen. In diesem Sinne hat der Einsatz von KI das Potenzial, die weltweiten Treibhausgasemissionen bis 2030 um bis zu 4 % zu senken.  Schätzungen zufolge sind Informations- und Kommunikationstechnologien in der Lage, die Treibhausgasemissionen um das Zehnfache ihres eigenen Fußabdrucks zu senken1a.. Im Hinblick auf die Umwelt hat künstliche Intelligenz ein großes Potenzial zur Lösung von Umweltproblemen wie der Reduzierung des Ressourcenverbrauchs, der Förderung der Dekarbonisierung, der Förderung der Kreislaufwirtschaft, dem Ausgleich von Angebot und Nachfrage in Stromnetzen oder der Optimierung von Strecken in der Logistik. Künstliche Intelligenz kann auch zur Stärkung der Umweltverwaltung und -politik beitragen, indem sie Verwaltungsentscheidungen im Zusammenhang mit der Verwaltung des Umwelterbes erleichtert, Verstöße und Umweltbetrug überwacht und die Beteiligung der Bürgerinnen und Bürger an Initiativen zur Erhaltung der biologischen Vielfalt fördert. Ferner kann die Analyse großer Datenmengen zu einem besseren Verständnis von Umweltproblemen und einer besseren Überwachung von Trends und Auswirkungen führen. Die intelligente Verwaltung großer Mengen umweltbezogener Informationen bietet auch Lösungen für eine bessere Umweltplanung, Entscheidungsfindung und Überwachung von Umweltbedrohungen und kann umweltverträgliche Unternehmen informieren und fördern, indem bessere Informationen für die Neuausrichtung nachhaltiger Entscheidungen in verschiedenen Geschäftsmodellen bereitgestellt werden und dadurch die Effizienz des Ressourcen-, Energie- und Materialverbrauchs durch Initiativen der intelligenten Industrie und Technologien auf der Basis von Maschine-zu-Maschine-Kommunikation(M2M) und dem Internet der Dinge (IoT) verbessert wird.

 

_____________

 

1a. https://www.europarl.europa.eu/cmsdata/231979/Working%20Paper%20-%20AIDA%20Hearing%20on%20AI%20and%20Green%20Deal.pdf

Änderungsantrag  10

Vorschlag für eine Verordnung

Erwägung 4 d (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4d) Die von Modellen auf der Grundlage künstlicher Intelligenz bereitgestellten Fähigkeiten im Bereich der prädiktiven Analytik können eine bessere Wartung von Infrastrukturen und Systemen im Energiebereich unterstützen sowie typische Wechselwirkungen zwischen der Gesellschaft und den natürlichen Ressourcen prognostizieren und so eine bessere Bewirtschaftung der Ressourcen ermöglichen.  Künstliche Intelligenz kann bei der Bekämpfung des Klimawandels helfen – zum Beispiel durch das Erdbeobachtungsprogramm Copernicus der Europäischen Union mit seinem Potenzial, genaue wissenschaftliche Daten bereitzustellen, die benötigt werden, um eine wissenschaftlich fundierte Entscheidungsfindung und die Umsetzung der Maßnahmen der Union in Bezug auf das Klima, die biologische Vielfalt und andere Umweltfragen sicherzustellen. Der Austritt des Vereinigten Königreichs aus der Europäischen Union hat zu einer erheblichen Finanzierungslücke im Copernicus-Programm geführt, die die Zukunft des Programms insgesamt infrage stellt und die dringend geschlossen werden muss, indem ausreichende finanzielle Mittel sowie Unterstützung bei der Datenverarbeitung gesichert werden, damit in Zukunft für eine fortschrittliche und automatisierte Technologie und eine auf künstliche Intelligenz gestützte Überwachung und Analyse aller zentralen Umweltindikatoren gesorgt ist. Außerdem ist die herkömmliche Identifizierung von Arten zeitaufwendig und teuer, wodurch Echtzeitbewertungen der biologischen Vielfalt erschwert werden. Durch die Integration von KI-Systemen könnte es ermöglicht werden, auf die manuelle Sortierung und Identifizierung von Arten zu verzichten. Somit könnte zum Tierschutz beigetragen werden, indem die Behörden in die Lage versetzt werden, gefährdete Artenpopulationen rasch zu erkennen, zu beobachten und zu überwachen und bei Bedarf zusätzliche Maßnahmen zu ihrer Erhaltung zu ergreifen.

Änderungsantrag  11

Vorschlag für eine Verordnung

Erwägung 4 e (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4e) Um den ökologischen und den digitalen Wandel sowie die technologische Widerstandsfähigkeit der EU sicherzustellen, den CO2-Fußabdruck der künstlichen Intelligenz zu verringern und die Ziele des neuen europäischen Grünen Deals zu erreichen, trägt diese Verordnung zur Förderung einer grünen und nachhaltigen künstlichen Intelligenz und zur Berücksichtigung der Umweltauswirkungen von KI-Systemen während ihres gesamten Lebenszyklus bei. Nachhaltigkeit sollte im Mittelpunkt des europäischen Rahmens für künstliche Intelligenz stehen, um sicherzustellen, dass die Entwicklung künstlicher Intelligenz in allen Phasen des Lebenszyklus von Produkten der künstlichen Intelligenz mit einer nachhaltigen Entwicklung der Umweltressourcen für heutige und zukünftige Generationen vereinbar ist; die Nachhaltigkeit der künstlichen Intelligenz sollte nachhaltige Datenquellen, Rechenzentren, Ressourcennutzung, Energieversorgung und Infrastrukturen umfassen.

Änderungsantrag  12

Vorschlag für eine Verordnung

Erwägung 4 f (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4f) Trotz des großen Potenzials, das die künstliche Intelligenz zur Lösung der Umwelt- und Klimakrise bietet, sind die Konzipierung, das Training und die Ausführung von Algorithmen mit einem hohen Energieverbrauch und folglich mit hohen CO2-Emissionen verbunden. Technologien der künstlichen Intelligenz und Rechenzentren haben einen großen CO2-Fußabdruck, weil sie einen erhöhten Energieverbrauch für Rechner und hohe Energiekosten aufgrund der Menge der gespeicherten Daten sowie der erzeugten Wärme, des verbrauchten Stroms und des anfallenden Elektronikmülls verursachen, was zu einer Zunahme der Umweltverschmutzung führt. Der ökologische Fußabdruck und der CO2-Fußabdruck werden voraussichtlich im Laufe der Zeit zunehmen, da die Menge der übertragenen und gespeicherten Daten und die Entwicklung von KI-Anwendungen in den kommenden Jahren weiterhin exponentiell ansteigen werden. Daher ist es wichtig, dass der klimatische und ökologische Fußabdruck von künstlicher Intelligenz und damit zusammenhängenden Technologien so gering wie möglich gehalten wird und dass KI-Systeme und zugehörige Maschinen nachhaltig konzipiert werden, um den Ressourcenverbrauch und den Energieverbrauch zu senken und damit die Risiken für die Umwelt zu begrenzen.

Änderungsantrag  13

Vorschlag für eine Verordnung

Erwägung 4 g (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4g) Um die nachhaltige Entwicklung von KI-Systemen zu fördern und insbesondere dem Bedarf an nachhaltigen, energieeffizienten Rechenzentren Vorrang einzuräumen, sollten die Anforderungen an eine effiziente Heizung und Kühlung von Rechenzentren mit den langfristigen Normen und Prioritäten der Union für die Bereiche Klima und Umwelt im Einklang stehen und dem Grundsatz der „Vermeidung erheblicher Beeinträchtigungen“ im Sinne von Artikel 17 der Verordnung (EU) 2020/852 über die Einrichtung eines Rahmens zur Erleichterung nachhaltiger Investitionen entsprechen und eine vollständige Dekarbonisierung bis Januar 2050 vorsehen. In diesem Zusammenhang sollten die Mitgliedstaaten und die Telekommunikationsanbieter Informationen über die Energieleistung und den ökologischen Fußabdruck von Technologien der künstlichen Intelligenz und Datenzentren sammeln und veröffentlichen, einschließlich Informationen über die Energieeffizienz von Algorithmen, um einen Nachhaltigkeitsindikator für Technologien der künstlichen Intelligenz zu erstellen. In einem europäischen Verhaltenskodex für die Energieeffizienz von Rechenzentren können wichtige Nachhaltigkeitsindikatoren festgelegt werden, um vier grundlegende Aspekte eines nachhaltigen Rechenzentrums zu messen, nämlich die Effizienz der Energienutzung, den Anteil der aus erneuerbaren Energiequellen erzeugten Energie, die Wiederverwendung von Abfällen und Wärme sowie den Verbrauch von Süßwasser.

Änderungsantrag  14

Vorschlag für eine Verordnung

Erwägung 5

 

Vorschlag der Kommission

Geänderter Text

(5) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie Gesundheit und Sicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Durch die Festlegung dieser Vorschriften unterstützt die Verordnung das vom Europäischen Rat33 formulierte Ziel der Union, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament34 ausdrücklich geforderten Schutz von Ethikgrundsätzen.

(5) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Konzipierung, Entwicklung, Verwendung und Verbreitung nachhaltiger und grüner künstlicher Intelligenz im Binnenmarkt zu fördern, die mit den Bestimmungen des Europäischen Grünen Deals im Einklang stehen, und gleichzeitig einen hohen Schutz öffentlicher Interessen wie Gesundheit und Sicherheit, Umwelt und Klimawandel, Lebensmittelsicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Durch die Festlegung dieser Vorschriften unterstützt die Verordnung das vom Europäischen Rat[33] formulierte Ziel der Union, bei der Entwicklung einer sicheren, unvoreingenommen, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament[34] ausdrücklich geforderten Schutz von Ethikgrundsätzen.

_________________

 

33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.

33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.

34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).

34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).

Änderungsantrag  15

Vorschlag für eine Verordnung

Erwägung 6

 

Vorschlag der Kommission

Geänderter Text

(6) Der Begriff „KI-System“ sollte klar definiert werden, um Rechtssicherheit zu gewährleisten und gleichzeitig genügend Flexibilität zu bieten, um künftigen technologischen Entwicklungen Rechnung zu tragen. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen der Software beruhen, insbesondere darauf, dass sie im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren, sei es physisch oder digital. KI-Systeme können so konzipiert sein, dass sie mit verschiedenen Graden der Autonomie arbeiten und eigenständig oder als Bestandteil eines Produkts verwendet werden können, unabhängig davon, ob das System physisch in das Produkt integriert ist (eingebettet) oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet). Die Bestimmung des Begriffs „KI-System“ sollte durch eine Liste spezifischer Techniken und Konzepte für seine Entwicklung ergänzt werden, die im Lichte der Marktentwicklungen und der technischen Entwicklungen auf dem neuesten Stand gehalten werden sollte, indem die Kommission delegierte Rechtsakte zur Änderung dieser Liste erlässt.

(6) Der Begriff „KI-System“ sollte klar definiert werden, um Rechtssicherheit zu gewährleisten und gleichzeitig genügend Flexibilität zu bieten, um künftigen technologischen Entwicklungen Rechnung zu tragen, wie z. B. der Neurotechnologie, die eine Gefährdung für die psychische Privatsphäre darstellen kann und Legislativvorschläge zum Schutz von Neurodaten und anderer sensibler Gesundheitsdaten erforderlich macht. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen der Software beruhen, insbesondere darauf, dass sie im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren, sei es physisch oder digital. KI-Systeme können so konzipiert sein, dass sie mit verschiedenen Graden der Autonomie arbeiten und eigenständig oder als Bestandteil eines Produkts verwendet werden können, unabhängig davon, ob das System physisch in das Produkt integriert ist (eingebettet) oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet). Die Bestimmung des Begriffs „KI-System“ sollte durch eine Liste spezifischer Techniken und Konzepte für seine Entwicklung ergänzt werden, die im Lichte der Marktentwicklungen und der technischen Entwicklungen auf dem neuesten Stand gehalten werden sollte, indem die Kommission delegierte Rechtsakte zur Änderung dieser Liste erlässt.

Änderungsantrag  16

Vorschlag für eine Verordnung

Erwägung 13

 

Vorschlag der Kommission

Geänderter Text

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit sowie die Grundrechte zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit, die Grundrechte oder die Umwelt zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.

Änderungsantrag  17

Vorschlag für eine Verordnung

Erwägung 13 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(13c) Künstliche Intelligenz kann Lösungen im Gesundheitswesen freisetzen, die Millionen von Menschenleben retten, bisher unerfülltem Bedarf nachkommen, unseren Lebensstandard verbessern und die Patientenversorgung und die Behandlungsergebnisse verbessern könnten, insbesondere in den Bereichen Diagnose, Prognose und Behandlung, Einbeziehung der Patienten, Einhaltung, Management und Nachbereitung, klinische Entscheidungsfindung, einschließlich prädiktiver Analyse, Screening und Optimierung klinischer Pfade sowie Pathologie. Künstliche Intelligenz kann auch die Präventionsstrategien, das Management der Gesundheitssysteme sowie die Organisation und Bereitstellung von Gesundheitsdiensten und medizinischer Versorgung, darunter auch Maßnahmen zur Gesundheitsförderung und Krankheitsprävention, verbessern. Sie könnte auch die Wettbewerbsfähigkeit der Interessenträger fördern sowie die Kosteneffizienz und Nachhaltigkeit der Gesundheitsdienste und der medizinischen Versorgung verbessern. Die Union hat das Potenzial, bei der Anwendung von künstlicher Intelligenz im Gesundheitswesen eine Führungsrolle zu übernehmen.

 

Änderungsantrag  18

Vorschlag für eine Verordnung

Erwägung 16

 

Vorschlag der Kommission

Geänderter Text

(16) Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die dazu bestimmt sind, menschliches Verhalten nachteilig zu beeinflussen, und die zu physischen oder psychischen Schäden führen dürften, sollte verboten werden. Solche KI-Systeme setzen auf eine vom Einzelnen nicht zu erkennende unterschwellige Beeinflussung oder sollen die Schutzbedürftigkeit von Kindern und anderen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung beeinträchtigten Personen ausnutzen. Dies geschieht mit der Absicht, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person Schaden zufügt oder zufügen kann. Diese Absicht kann nicht vermutet werden, wenn die nachteilige Beeinflussung des menschlichen Verhaltens auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Nutzers liegen. Forschung zu legitimen Zwecken im Zusammenhang mit solchen KI-Systemen sollte durch das Verbot nicht unterdrückt werden, wenn diese Forschung nicht auf eine Verwendung des KI-Systems in Beziehungen zwischen Mensch und Maschine hinausläuft, durch die natürliche Personen geschädigt werden, und wenn diese Forschung im Einklang mit anerkannten ethischen Standards für die wissenschaftliche Forschung durchgeführt wird.

(16) Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die dazu bestimmt sind, menschliches Verhalten nachteilig zu beeinflussen, sodass physische oder psychische Schäden oder Störungen der Selbstwahrnehmung zu erwarten sind, sollte verboten werden. Solche KI-Systeme setzen auf eine vom Einzelnen nicht zu erkennende unterschwellige Beeinflussung oder sollen die Schutzbedürftigkeit von Kindern und anderen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung beeinträchtigten Personen ausnutzen. Dies geschieht mit der Absicht, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person Schaden zufügt oder zufügen kann oder ihr die letztendliche Kontrolle über die persönliche Entscheidungsfindung entzieht, wobei eine nicht wahrnehmbare Manipulation durch externe Neurotechnologien erfolgt. Diese Absicht kann nicht vermutet werden, wenn die nachteilige Beeinflussung des menschlichen Verhaltens auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Nutzers liegen. Forschung zu legitimen Zwecken im Zusammenhang mit solchen KI-Systemen sollte durch das Verbot nicht unterdrückt werden, wenn diese Forschung nicht auf eine Verwendung des KI-Systems in Beziehungen zwischen Mensch und Maschine hinausläuft, durch die natürliche Personen geschädigt werden, und wenn diese Forschung im Einklang mit anerkannten ethischen Standards für die wissenschaftliche Forschung durchgeführt wird.

Änderungsantrag  19

Vorschlag für eine Verordnung

Erwägung 27

 

Vorschlag der Kommission

Geänderter Text

(27) Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht oder in Betrieb genommen werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben.

(27) Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht oder in Betrieb genommen werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige Klimaschutzprioritäten, Erfordernisse des Umweltschutzes und öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit, die Treibhausgasemissionen, wichtige Umweltparameter wie die biologische Vielfalt oder die Bodenverschmutzung und die Grundrechte von Personen in der Union haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben.

Änderungsantrag  20

Vorschlag für eine Verordnung

Erwägung 27 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(27a) Der Definition der Weltgesundheitsorganisation (WHO) zufolge ist Gesundheit „ein Zustand vollständigen körperlichen, geistigen und sozialen Wohlbefindens und nicht nur das Freisein von Krankheit oder Gebrechen“. Eine bessere Gesundheit der Bevölkerung in der Union und ein Abbau der gesundheitlichen Ungleichheiten kann nur bewirkt werden, wenn der Schwerpunkt nicht allein auf der körperlichen Gesundheit liegt. Digitale Technologien und insbesondere künstliche Intelligenz können sich unmittelbar negativ auf die psychische Gesundheit auswirken. Gleichzeitig sollte das Potenzial der künstlichen Intelligenz bei der Entwicklung von Vorhersage-, Erkennungs- und Behandlungslösungen für die psychische Gesundheit voll ausgeschöpft werden.  Das Recht auf körperliche und geistige Gesundheit ist ein grundlegendes Menschenrecht, und die universelle Gesundheitsversorgung ist ein Ziel für nachhaltige Entwicklung, zu dessen Verwirklichung bis 2030 sich alle Unterzeichner verpflichtet haben.

Änderungsantrag  21

Vorschlag für eine Verordnung

Erwägung 28

 

Vorschlag der Kommission

Geänderter Text

(28) KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Komponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein. Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, die Unschuldsvermutung und das Verteidigungsrecht sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen verursachen kann, ebenfalls Rechnung getragen werden.

(28) KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen oder auf die Umwelt haben, insbesondere wenn solche Systeme als Komponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein. Die digitale Gesundheit sollte die Pflege nicht entmenschlichen und die Beziehung zwischen Arzt und Patient nicht beeinträchtigen, sondern die Ärzte bei der Diagnose und/oder Behandlung ihrer Patienten unterstützen, ohne dabei die notwendige menschliche Aufsicht zu vernachlässigen oder die einschlägigen Datenschutzbestimmungen zu verletzen. Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten und von Gesundheitsdaten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, die Unschuldsvermutung und das Verteidigungsrecht sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen oder die Umwelt verursachen kann, ebenfalls Rechnung getragen werden.

Änderungsantrag  22

Vorschlag für eine Verordnung

Erwägung 28 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(28a) Im Hinblick auf die Gesundheit und die Patientenrechte können KI-Systeme eine wichtige Rolle bei der Verbesserung der Gesundheit der einzelnen Patienten und der Leistungsfähigkeit der öffentlichen Gesundheitssysteme spielen. Wenn künstliche Intelligenz im Gesundheitsbereich eingesetzt wird, können Patienten jedoch potenziellen spezifischen Risiken ausgesetzt sein, die zu physischen oder psychischen Schäden führen können, beispielsweise wenn verschiedene Verzerrungen in Bezug auf Alter, ethnische Zugehörigkeit, Geschlecht oder Behinderungen in Algorithmen zu falschen Diagnosen führen. Die mangelnde Transparenz in Bezug auf die Funktionsweise von Algorithmen erschwert es außerdem, den Patienten die relevanten Informationen zur Verfügung zu stellen, die sie benötigen, um ihre Rechte – wie etwa die Einwilligung nach Aufklärung – wahrzunehmen. Darüber hinaus kann der Einsatz von künstlicher Intelligenz, die auf großen Datenmengen – darunter viele personenbezogene Daten – beruht, den Schutz medizinischer Daten beeinträchtigen, da die Patienten nur eine begrenzte Kontrolle über die Verwendung ihrer personenbezogenen Daten haben und KI-Systeme Schwachstellen in Bezug auf die Cybersicherheit aufweisen. All dies bedeutet, dass besondere Vorsicht geboten ist, wenn künstliche Intelligenz in klinischen Umgebungen oder im Gesundheitswesen eingesetzt wird. Um die Gesundheitsergebnisse der Bevölkerung in den EU-Mitgliedstaaten zu verbessern, ist ein klarer Haftungsrahmen für medizinische Anwendungen von künstlicher Intelligenz und die Entwicklung von Arzneimitteln unerlässlich.

Änderungsantrag  23

Vorschlag für eine Verordnung

Erwägung 28 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(28b) KI-Systeme, die nicht unter die Verordnung (EU) 2017/745 fallen und Auswirkungen auf die Gesundheit oder das Gesundheitswesen haben, sollten als hochriskant eingestuft werden und unter diese Verordnung fallen. Das Gesundheitswesen ist einer der Wirtschaftszweige in der Union, in denen viele KI-Anwendungen eingesetzt werden, und ein Markt, der ein potenziell hohes Risiko für die menschliche Gesundheit darstellt. Die Verordnung (EU) 2017/745 gilt nur für Medizinprodukte und Software mit medizinischer Zweckbestimmung, schließt aber viele KI-Anwendungen aus, die im Gesundheitswesen eingesetzt werden, z. B. auf künstlicher Intelligenz beruhende Verwaltungs- und Managementsysteme, die von Angehörigen der Gesundheitsberufe in Krankenhäusern oder anderen Einrichtungen des Gesundheitswesens und von Krankenversicherungen verwendet werden, sowie zahlreiche Fitness- und Gesundheits-Apps, die auf künstliche Intelligenz gestützte Empfehlungen geben. Diese Anwendungen können aufgrund ihrer gesundheitlichen Auswirkungen oder der Verarbeitung sensibler Gesundheitsdaten neue Herausforderungen und Risiken für die Menschen mit sich bringen. Um diese potenziellen spezifischen Risiken zu kontrollieren, die zu physischen oder psychischen Schäden oder zum Missbrauch sensibler Gesundheitsdaten führen könnten, sollten diese KI-Systeme als Hochrisiko-KI-Systeme eingestuft werden.

Änderungsantrag  24

Vorschlag für eine Verordnung

Erwägung 31

 

Vorschlag der Kommission

Geänderter Text

(31) Die Einstufung eines KI-Systems als hochriskant gemäß dieser Verordnung sollte nicht zwangsläufig bedeuten, dass von dem Produkt, dessen Sicherheitskomponente das KI-System ist, oder dem KI-System als Produkt selbst nach den Kriterien der einschlägigen Harmonisierungsrechtsvorschriften der Union für das betreffende Produkt ein hohes Risiko ausgeht. Dies betrifft insbesondere die Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates47 und die Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates48, in denen für Produkte, die ein mittleres und hohes Risiko bergen, eine Konformitätsbewertung durch Dritte vorgesehen ist.

(31) Die Einstufung eines KI-Systems als hochriskant gemäß dieser Verordnung sollte nicht zwangsläufig bedeuten, dass von dem Produkt, dessen Sicherheitskomponente das KI-System ist, oder dem KI-System als Produkt selbst nach den Kriterien der einschlägigen Harmonisierungsrechtsvorschriften der Union für das betreffende Produkt ein hohes Risiko ausgeht, es sei denn, dies ist hinreichend begründet. Dies betrifft insbesondere die Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates47 und die Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates48, in denen für Produkte, die ein mittleres und hohes Risiko bergen, eine Konformitätsbewertung durch Dritte vorgesehen ist. Im Interesse der Kohärenz und Rechtsklarheit sollten KI-Komponenten weiterhin als Teil des gesamten Produkts bewertet werden, wenn das vorgesehene risikobasierte System bereits potenzielle damit verbundene Risiken berücksichtigt.

_________________

_________________

47 Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte, zur Änderung der Richtlinie 2001/83/EG, der Verordnung (EG) Nr. 178/2002 und der Verordnung (EG) Nr. 1223/2009 und zur Aufhebung der Richtlinien 90/385/EWG und 93/42/EWG des Rates (ABl. L 117 vom 5.5.2017, S. 1).

47 Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte, zur Änderung der Richtlinie 2001/83/EG, der Verordnung (EG) Nr. 178/2002 und der Verordnung (EG) Nr. 1223/2009 und zur Aufhebung der Richtlinien 90/385/EWG und 93/42/EWG des Rates (ABl. L 117 vom 5.5.2017, S. 1).

48 Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates vom 5. April 2017 über In-vitro-Diagnostika und zur Aufhebung der Richtlinie 98/79/EG und des Beschlusses 2010/227/EU der Kommission (ABl. L 117 vom 5.5.2017, S. 176).

48 Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates vom 5. April 2017 über In-vitro-Diagnostika und zur Aufhebung der Richtlinie 98/79/EG und des Beschlusses 2010/227/EU der Kommission (ABl. L 117 vom 5.5.2017, S. 176).

Änderungsantrag  25

Vorschlag für eine Verordnung

Erwägung 32

 

Vorschlag der Kommission

Geänderter Text

(32) Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitskomponenten von Produkten handelt oder die selbst Produkte sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein hohes Risiko bergen, die Gesundheit und Sicherheit oder die Grundrechte von Personen zu schädigen, wobei sowohl die Schwere des möglichen Schadens als auch die Wahrscheinlichkeit seines Auftretens zu berücksichtigen sind, und sofern sie in einer Reihe von Bereichen verwendet werden, die in der Verordnung ausdrücklich festgelegt sind. Die Bestimmung dieser Systeme erfolgt nach derselben Methode und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind.

(32) Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitskomponenten von Produkten handelt oder die selbst Produkte sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein hohes Risiko bergen, die Gesundheit, Sicherheit oder die Grundrechte von Personen oder die Umwelt zu schädigen, wobei sowohl die Schwere des möglichen Schadens als auch die Wahrscheinlichkeit seines Auftretens zu berücksichtigen sind, und sofern sie in einer Reihe von Bereichen verwendet werden, die in der Verordnung ausdrücklich festgelegt sind. Die Bestimmung dieser Systeme erfolgt nach derselben Methode und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind.

Änderungsantrag  26

Vorschlag für eine Verordnung

Erwägung 34

 

Vorschlag der Kommission

Geänderter Text

(34) Was die Verwaltung und den Betrieb kritischer Infrastrukturen anbelangt, so sollten KI-Systeme, die als Sicherheitskomponenten für das Management und den Betrieb des Straßenverkehrs sowie für die Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen, als hochriskant eingestuft werden, da ihr Ausfall oder ihre Störung in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann.

(34) Was die Verwaltung und den Betrieb kritischer Infrastrukturen anbelangt, so sollten KI-Systeme, die als Sicherheitskomponenten für das Management und den Betrieb des Straßenverkehrs, der Gesundheitssysteme, der Mechanismen zur Kontrolle von Naturkatastrophen oder von von Menschen verursachten Katastrophen sowie für die Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen, als hochriskant eingestuft werden, da ihr Ausfall oder ihre Störung in großem Umfang das Leben und die Gesundheit von Menschen und die Umwelt gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann.

 

Änderungsantrag  27

Vorschlag für eine Verordnung

Erwägung 37

 

Vorschlag der Kommission

Geänderter Text

(37) Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten und Leistungen, die erforderlich sind, damit die Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie Wohnraum, Elektrizität und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die zu diesem Zweck eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, beispielsweise aufgrund der rassischen oder ethnischen Herkunft, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Angesichts des sehr begrenzten Auswirkungen und der auf dem Markt verfügbaren Alternativen ist es angezeigt, KI-Systeme zur Kreditwürdigkeitsprüfung und Kreditpunktebewertung auszunehmen, wenn sie von kleinen Anbietern für den Eigenbedarf in Betrieb genommen werden. Natürliche Personen, die staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, können sie erhebliche Auswirkungen auf die Existenzgrundlage der Menschen haben und ihre Grundrechte wie das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen. Solche Systeme sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Anwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Schließlich sollten KI-Systeme, die bei der Entsendung oder der Priorisierung der Entsendung von Rettungsdiensten eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für ihr Eigentum sehr kritischen Situationen Entscheidungen treffen.

(37) Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten und Leistungen, darunter auch im Bereich der Gesundheitsversorgung, die erforderlich sind, damit die Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie Wohnraum, Elektrizität, Gesundheitsversorgung und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die zu diesem Zweck eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, beispielsweise aufgrund der rassischen oder ethnischen Herkunft, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Angesichts des sehr begrenzten Auswirkungen und der auf dem Markt verfügbaren Alternativen ist es angezeigt, KI-Systeme zur Kreditwürdigkeitsprüfung und Kreditpunktebewertung auszunehmen, wenn sie von kleinen Anbietern für den Eigenbedarf in Betrieb genommen werden. Natürliche Personen, die staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, können sie erhebliche Auswirkungen auf die Existenzgrundlage, die Gesundheit und das Wohlergehen der Menschen haben und ihre Grundrechte wie das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen. Solche Systeme sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Anwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Schließlich sollten KI-Systeme, die bei der Entsendung oder der Priorisierung der Entsendung von Rettungsdiensten und bei der Prävention, Diagnose, Kontrolle und Behandlung von Krankheiten eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für ihr Eigentum oder die Umwelt sehr kritischen Situationen Entscheidungen treffen.

Änderungsantrag  28

Vorschlag für eine Verordnung

Erwägung 38

 

Vorschlag der Kommission

Geänderter Text

(38) Maßnahmen von Strafverfolgungsbehörden im Zusammenhang mit bestimmten Verwendungen von KI-Systemen sind durch ein erhebliches Machtungleichgewicht gekennzeichnet und können zur Überwachung, Festnahme oder zum Entzug der Freiheit einer natürlichen Person sowie zu anderen nachteiligen Auswirkungen auf die in der Charta verankerten Grundrechte führen. Insbesondere wenn das KI-System nicht mit hochwertigen Daten trainiert wird, die Anforderungen an seine Genauigkeit oder Robustheit nicht erfüllt werden oder das System nicht ordnungsgemäß konzipiert und getestet wird, bevor es in Verkehr gebracht oder in anderer Weise in Betrieb genommen wird, kann es Personen in diskriminierender oder anderweitig falscher oder ungerechter Weise ausgrenzen. Darüber hinaus könnte die Ausübung wichtiger verfahrensrechtlicher Grundrechte wie des Rechts auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht sowie die Unschuldsvermutung und Verteidigungsrechte behindert werden, insbesondere wenn solche KI-Systeme nicht hinreichend transparent, erklärbar und dokumentiert sind. Daher ist es angezeigt, eine Reihe von KI-Systemen, die im Rahmen der Strafverfolgung eingesetzt werden sollen und bei denen Genauigkeit, Zuverlässigkeit und Transparenz besonders wichtig sind, als hochriskant einzustufen, um nachteilige Auswirkungen zu vermeiden, das Vertrauen der Öffentlichkeit zu erhalten und die Rechenschaftspflicht und einen wirksamen Rechtsschutz zu gewährleisten. Angesichts der Art der betreffenden Tätigkeiten und der damit verbundenen Risiken sollten diese Hochrisiko-KI-Systeme insbesondere KI-Systeme umfassen, die von Strafverfolgungsbehörden für individuelle Risikobewertungen, als Lügendetektoren und ähnliche Instrumente oder zur Ermittlung des emotionalen Zustands natürlicher Personen, zur Aufdeckung von „Deepfakes“, zur Bewertung der Zuverlässigkeit von Beweismitteln in Strafverfahren, zur Vorhersage des Auftretens oder erneuten Auftretens einer tatsächlichen oder potenziellen Straftat auf der Grundlage des Profils natürlicher Personen oder zur Bewertung von Persönlichkeitsmerkmalen und Eigenschaften oder vergangenen kriminellen Verhaltens von natürlichen Personen oder Gruppen, zur Erstellung eines Profils während der Aufdeckung, Untersuchung oder strafrechtlichen Verfolgung einer Straftat sowie zur Kriminalanalyse in Bezug auf natürliche Personen eingesetzt werden. KI-Systeme, die speziell für Verwaltungsverfahren in Steuer- und Zollbehörden bestimmt sind, sollten nicht als Hochrisiko-KI-Systeme gelten, die von Strafverfolgungsbehörden zum Zwecke der Verhütung, Aufdeckung, Untersuchung und strafrechtlichen Verfolgung von Straftaten eingesetzt werden.

(38) Maßnahmen von Strafverfolgungsbehörden im Zusammenhang mit bestimmten Verwendungen von KI-Systemen sind durch ein erhebliches Machtungleichgewicht gekennzeichnet und können zur Überwachung, Festnahme oder zum Entzug der Freiheit einer natürlichen Person sowie zu anderen nachteiligen Auswirkungen auf die in der Charta verankerten Grundrechte führen. Insbesondere wenn das KI-System nicht mit hochwertigen Daten trainiert wird, die Anforderungen an seine Genauigkeit oder Robustheit nicht erfüllt werden oder das System nicht ordnungsgemäß konzipiert und getestet wird, bevor es in Verkehr gebracht oder in anderer Weise in Betrieb genommen wird, kann es Personen in diskriminierender oder anderweitig falscher oder ungerechter Weise ausgrenzen. Darüber hinaus könnte die Ausübung wichtiger verfahrensrechtlicher Grundrechte wie des Rechts auf einen wirksamen Rechtsbehelf, darunter das Recht auf Zugang zu Gerichten in Umweltangelegenheiten – das im UNECE-Übereinkommen über den Zugang zu Informationen, die Öffentlichkeitsbeteiligung an Entscheidungsverfahren und den Zugang zu Gerichten in Umweltangelegenheiten („Übereinkommen von Århus“) verankert ist und in der Union im Rahmen der Verordnung (EG) Nr. 1367/2006 des Europäischen Parlaments und des Rates* umgesetzt wurde –, das Recht auf ein unparteiisches Gericht sowie die Unschuldsvermutung und Verteidigungsrechte behindert werden, insbesondere wenn solche KI-Systeme nicht hinreichend transparent, erklärbar und dokumentiert sind. Daher ist es angezeigt, eine Reihe von KI-Systemen, die im Rahmen der Strafverfolgung eingesetzt werden sollen und bei denen Genauigkeit, Zuverlässigkeit und Transparenz besonders wichtig sind, als hochriskant einzustufen, um nachteilige Auswirkungen zu vermeiden, das Vertrauen der Öffentlichkeit zu erhalten und die Rechenschaftspflicht und einen wirksamen Rechtsschutz zu gewährleisten. Angesichts der Art der betreffenden Tätigkeiten und der damit verbundenen Risiken sollten diese Hochrisiko-KI-Systeme insbesondere KI-Systeme umfassen, die von Strafverfolgungsbehörden für individuelle Risikobewertungen, als Lügendetektoren und ähnliche Instrumente oder zur Ermittlung des emotionalen Zustands natürlicher Personen, zur Aufdeckung von „Deepfakes“, zur Bewertung der Zuverlässigkeit von Beweismitteln in Strafverfahren, zur Vorhersage des Auftretens oder erneuten Auftretens einer tatsächlichen oder potenziellen Straftat auf der Grundlage des Profils natürlicher Personen oder zur Bewertung von Persönlichkeitsmerkmalen und Eigenschaften oder vergangenen kriminellen Verhaltens von natürlichen Personen oder Gruppen, zur Erstellung eines Profils während der Aufdeckung, Untersuchung oder strafrechtlichen Verfolgung einer Straftat sowie zur Kriminalanalyse in Bezug auf natürliche Personen eingesetzt werden. KI-Systeme, die speziell für Verwaltungsverfahren in Steuer- und Zollbehörden bestimmt sind, sollten nicht als Hochrisiko-KI-Systeme gelten, die von Strafverfolgungsbehörden zum Zwecke der Verhütung, Aufdeckung, Untersuchung und strafrechtlichen Verfolgung von Straftaten eingesetzt werden.

_________________

_________________

 

* Verordnung (EG) Nr. 1367/2006 des Europäischen Parlaments und des Rates vom 6. September 2006 über die Anwendung der Bestimmungen des Übereinkommens von Århus über den Zugang zu Informationen, die Öffentlichkeitsbeteiligung an Entscheidungsverfahren und den Zugang zu Gerichten in Umweltangelegenheiten auf Organe und Einrichtungen der Gemeinschaft (ABl. L 264 vom 25.9.2006, S. 13).

 

 

Änderungsantrag  29

Vorschlag für eine Verordnung

Erwägung 40

 

Vorschlag der Kommission

Geänderter Text

(40) Bestimmte KI-Systeme, die für die Rechtspflege und demokratische Prozesse bestimmt sind, sollten angesichts ihrer möglichen erheblichen Auswirkungen auf die Demokratie, die Rechtsstaatlichkeit, die individuellen Freiheiten sowie das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht als hochriskant eingestuft werden. Um insbesondere den Risiken möglicher Verzerrungen, Fehler und Undurchsichtigkeiten zu begegnen, sollten KI-Systeme, die Justizbehörden dabei helfen sollen, Sachverhalte und Rechtsvorschriften zu ermitteln und auszulegen und das Recht auf konkrete Sachverhalte anzuwenden, als hochriskant eingestuft werden. Diese Einstufung sollte sich jedoch nicht auf KI-Systeme erstrecken, die für rein begleitende Verwaltungstätigkeiten bestimmt sind, die die tatsächliche Rechtspflege in Einzelfällen nicht beeinträchtigen, wie die Anonymisierung oder Pseudonymisierung gerichtlicher Urteile, Dokumente oder Daten, die Kommunikation zwischen dem Personal, Verwaltungsaufgaben oder die Zuweisung von Ressourcen.

(40) Bestimmte KI-Systeme, die für die Rechtspflege und demokratische Prozesse bestimmt sind, sollten angesichts ihrer möglichen erheblichen Auswirkungen auf die Demokratie, die Rechtsstaatlichkeit, die individuellen Freiheiten sowie das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht als hochriskant eingestuft werden. Um insbesondere den Risiken möglicher Verzerrungen, Fehler und Undurchsichtigkeiten sowie den damit verbundenen schwerwiegenden ethischen Bedenken in Bezug auf die Entscheidungsfindung durch und die Autonomie von Maschinen zu begegnen, sollten KI-Systeme, die Justizbehörden dabei helfen sollen, Sachverhalte und Rechtsvorschriften zu ermitteln und auszulegen und das Recht auf konkrete Sachverhalte anzuwenden, als hochriskant eingestuft werden. Diese Einstufung sollte sich jedoch nicht auf KI-Systeme erstrecken, die für rein begleitende Verwaltungstätigkeiten bestimmt sind, die die tatsächliche Rechtspflege in Einzelfällen nicht beeinträchtigen, wie die Anonymisierung oder Pseudonymisierung gerichtlicher Urteile, Dokumente oder Daten, die Kommunikation zwischen dem Personal, Verwaltungsaufgaben oder die Zuweisung von Ressourcen.

Änderungsantrag  30

Vorschlag für eine Verordnung

Erwägung 43

 

Vorschlag der Kommission

Geänderter Text

(43) Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf die Qualität der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Nutzer, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Cybersicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für die Gesundheit, die Sicherheit und die Grundrechte entsprechend der Zweckbestimmung des Systems wirksam zu mindern, und es stehen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung, sodass ungerechtfertigte Handelsbeschränkungen vermieden werden.

(43) Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf die Qualität der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Nutzer und Endempfänger, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Cybersicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für die Gesundheit, die Sicherheit und die Grundrechte und im weiteren Sinne für das Klima und die Umwelt entsprechend der Zweckbestimmung des Systems wirksam zu mindern, und es stehen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung, sodass ungerechtfertigte Handelsbeschränkungen vermieden werden. Um mögliche Fehlanpassungen oder Überschneidungen zu vermeiden, sollte die Kommission eindeutig festlegen, welche einschlägigen sektorspezifischen Rechtsvorschriften in Bezug auf die Daten-Governance und die damit verbundenen Verwaltungspraktiken oder Qualitätskriterien Vorrang haben können.

Änderungsantrag  31

Vorschlag für eine Verordnung

Erwägung 43 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(43a) Bei diesen Anforderungen sollten auch die internationalen Umwelt- und Menschenrechtsgrundsätze und ‑instrumente berücksichtigt werden, darunter das Übereinkommen von Århus, die vom Menschenrechtsrat am 8. Oktober 2021 angenommene Resolution 48/13 über das Menschenrecht auf eine saubere, gesunde und nachhaltige Umwelt sowie die im IPCC-Sonderbericht 2018 dargelegten internationalen Klimaverpflichtungen zur Begrenzung der globalen Durchschnittstemperatur auf 1,5 °C.

Änderungsantrag  32

Vorschlag für eine Verordnung

Erwägung 43 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(43b) Die Union verpflichtet sich zu Fortschritten bei der Anerkennung des Rechts auf eine saubere, gesunde und nachhaltige Umwelt, wie in der Resolution 48/13 des Menschenrechtsrats der Vereinten Nationen dargelegt wird.

Änderungsantrag  33

Vorschlag für eine Verordnung

Erwägung 44

 

Vorschlag der Kommission

Geänderter Text

(44) Eine hohe Datenqualität ist für die Leistung vieler KI-Systeme von wesentlicher Bedeutung, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten-Governance- und Datenverwaltungsverfahren umgesetzt werden. Die Trainings-, Validierungs- und Testdatensätze sollten im Hinblick auf die Zweckbestimmung des Systems hinreichend relevant, repräsentativ, fehlerfrei und vollständig sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu beobachten, zu erkennen und zu korrigieren.

(44) Eine hohe Datenqualität ist für die Leistung vieler KI-Systeme von wesentlicher Bedeutung, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten-Governance- und Datenverwaltungsverfahren umgesetzt werden. Die Trainings-, Validierungs- und Testdatensätze sollten im Hinblick auf die Zweckbestimmung des Systems hinreichend relevant, repräsentativ, fehlerfrei und vollständig sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, d. h. um die Nichtdiskriminierung durch Algorithmen sicherzustellen, sollten die Anbieter angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu beobachten, zu erkennen und zu korrigieren.

Änderungsantrag  34

Vorschlag für eine Verordnung

Erwägung 45

 

Vorschlag der Kommission

Geänderter Text

(45) Für die Entwicklung von Hochrisiko-KI-Systemen sollten bestimmte Akteure wie Anbieter, notifizierte Stellen und andere einschlägige Stellen wie Zentren für digitale Innovation, Erprobungs- und Versuchseinrichtungen und Forscher in der Lage sein, in ihren jeweiligen Tätigkeitsbereichen, die mit dieser Verordnung in Zusammenhang stehen, auf hochwertige Datensätze zuzugreifen und diese zu nutzen. Die von der Kommission eingerichteten gemeinsamen europäischen Datenräume und die Erleichterung des Datenaustauschs im öffentlichen Interesse zwischen Unternehmen und mit Behörden werden entscheidend dazu beitragen, einen vertrauensvollen, rechenschaftspflichtigen und diskriminierungsfreien Zugang zu hochwertigen Daten für das Training, die Validierung und das Testen von KI-Systemen zu gewährleisten. Im Gesundheitsbereich beispielsweise wird der europäische Raum für Gesundheitsdaten den diskriminierungsfreien Zugang zu Gesundheitsdaten und das Training von KI-Algorithmen mithilfe dieser Datensätze erleichtern, und zwar unter Wahrung der Privatsphäre, auf sichere, zeitnahe, transparente und vertrauenswürdige Weise und unter angemessener institutioneller Leitung. Die einschlägigen zuständigen Behörden, einschließlich sektoraler Behörden, die den Zugang zu Daten bereitstellen oder unterstützen, können auch die Bereitstellung hochwertiger Daten für das Training, die Validierung und das Testen von KI-Systemen unterstützen.

(45) Für die Entwicklung von Hochrisiko-KI-Systemen sollten bestimmte Akteure wie Anbieter, notifizierte Stellen und andere einschlägige Stellen wie Zentren für digitale Innovation, Institute der Forschung und Wissenschaft, Gesundheitsbehörden, Krankenhäuser, Erprobungs- und Versuchseinrichtungen und Forscher in der Lage sein, in ihren jeweiligen Tätigkeitsbereichen, die mit dieser Verordnung in Zusammenhang stehen, besser auf hochwertige Datensätze zuzugreifen und diese zu nutzen. Die von der Kommission eingerichteten gemeinsamen europäischen Datenräume und die Erleichterung des Datenaustauschs im öffentlichen Interesse zwischen Unternehmen und mit Behörden werden entscheidend dazu beitragen, einen vertrauensvollen, rechenschaftspflichtigen und diskriminierungsfreien Zugang zu hochwertigen Daten für das Training, die Validierung und das Testen von KI-Systemen zu gewährleisten. Im Gesundheitsbereich beispielsweise wird der europäische Raum für Gesundheitsdaten den diskriminierungsfreien Zugang zu Gesundheitsdaten und das Training von KI-Algorithmen mithilfe dieser Datensätze erleichtern, und zwar unter Wahrung der Privatsphäre, auf sichere, zeitnahe, transparente und vertrauenswürdige Weise und unter angemessener institutioneller Leitung. Mit KI-Anwendungen für Arzneimittel und im Bereich der Gesundheitsversorgung sollte die Interoperabilität von Gesundheitsdaten und epidemiologischen Informationen unterstützt werden, um Ärzten die nötige Unterstützung für eine effizientere Diagnose und Behandlung von Patienten zu bieten und so die Behandlungsergebnisse zu verbessern. Die Mitgliedstaaten sollten Anreize schaffen, um sicherzustellen, dass die Daten vollständig interoperabel sind, sodass das Potenzial der hochwertigen Gesundheitsdienste Europas unter Einhaltung der Verordnung (EU) 2016/679 voll ausgeschöpft werden kann. Die einschlägigen zuständigen Behörden, einschließlich sektoraler Behörden, die den Zugang zu Daten bereitstellen oder unterstützen, können auch die Bereitstellung hochwertiger Daten für das Training, die Validierung und das Testen von KI-Systemen unterstützen.

Änderungsantrag  35

Vorschlag für eine Verordnung

Erwägung 46

 

Vorschlag der Kommission

Geänderter Text

(46) Informationen darüber, wie Hochrisiko-KI-Systeme entwickelt wurden und wie sie während ihres gesamten Lebenszyklus funktionieren, sind unerlässlich, um die Einhaltung der Anforderungen dieser Verordnung überprüfen zu können. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten, Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen. Die technische Dokumentation sollte stets auf dem neuesten Stand gehalten werden.

(46) Informationen darüber, wie Hochrisiko-KI-Systeme konzipiert und entwickelt wurden und wie sie während ihres gesamten Lebenszyklus funktionieren, sind unerlässlich, um die Einhaltung der Anforderungen dieser Verordnung überprüfen zu können. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten, Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen. Die technische Dokumentation sollte stets auf dem neuesten Stand gehalten werden.

Änderungsantrag  36

Vorschlag für eine Verordnung

Erwägung 46 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(46a) Künstliche Intelligenz sollte einen Beitrag zum europäischen Grünen Deal und zum ökologischen Wandel leisten und von Regierungen und Unternehmen zum Wohle der Menschen und des Planeten eingesetzt werden. In diesem Zusammenhang sollten die Kommission und die Mitgliedstaaten die Konzeption, die Entwicklung, den Einsatz und die Nutzung energieeffizienter und CO2-armer KI-Systeme durch die Entwicklung bewährter Verfahren und die Veröffentlichung von Leitlinien und Methoden fördern. Darüber hinaus sollte die Kommission ein Verfahren, eine Methodik, Mindeststandards und eine Skala entwickeln, die auf freiwilliger Basis auf alle KI-Systeme angewandt werden können, um eine auf mehreren Kriterien beruhende Offenlegung von Informationen über den Energieverbrauch bei dem Trainieren, dem erneuten Trainieren, der Feinabstimmung und der Ausführung von KI-Systemen sowie eine quantitative Bewertung der Auswirkungen des jeweiligen KI-Systems auf den Klimaschutz und die Anpassung an den Klimawandel, einschließlich der CO2-Intensität, zu ermöglichen.

Änderungsantrag  37

Vorschlag für eine Verordnung

Erwägung 47

 

Vorschlag der Kommission

Geänderter Text

(47) Um der Undurchsichtigkeit entgegenzuwirken, die bestimmte KI-Systeme für natürliche Personen unverständlich oder zu komplex erscheinen lässt, sollte für Hochrisiko-KI-Systeme ein gewisses Maß an Transparenz vorgeschrieben werden. Die Nutzer sollten in der Lage sein, die Ergebnisse des Systems zu interpretieren und es angemessen zu verwenden. Hochrisiko-KI-Systemen sollte daher die einschlägige Dokumentation und Gebrauchsanweisungen beigefügt sein und diese sollten präzise und eindeutige Informationen enthalten, gegebenenfalls auch in Bezug auf mögliche Risiken in Bezug auf die Grundrechte und Diskriminierung.

(47) Um der Undurchsichtigkeit entgegenzuwirken, die bestimmte KI-Systeme für natürliche Personen unverständlich oder zu komplex erscheinen lässt, sollte für Hochrisiko-KI-Systeme ein gewisses Maß an Transparenz vorgeschrieben werden. Die Nutzer und Endempfänger sollten in der Lage sein, die Ergebnisse des Systems zu interpretieren und es angemessen zu verwenden. Hochrisiko-KI-Systemen sollte daher die einschlägige Dokumentation und Gebrauchsanweisungen beigefügt sein und diese sollten präzise und eindeutige Informationen enthalten, gegebenenfalls auch in Bezug auf mögliche Risiken in Bezug auf die Grundrechte und Diskriminierung.

Änderungsantrag  38

Vorschlag für eine Verordnung

Erwägung 48

 

Vorschlag der Kommission

Geänderter Text

(48) Hochrisiko-KI-Systeme sollten so konzipiert und entwickelt werden, dass natürliche Personen ihre Funktionsweise überwachen können. Zu diesem Zweck sollte der Anbieter des Systems vor dem Inverkehrbringen oder der Inbetriebnahme geeignete Maßnahmen zur Gewährleistung der menschlichen Aufsicht festlegen. Insbesondere sollten solche Maßnahmen gegebenenfalls gewährleisten, dass das System integrierten Betriebseinschränkungen unterliegt, über die sich das System selbst nicht hinwegsetzen kann, dass es auf den menschlichen Bediener reagiert und dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen, um diese Aufgabe wahrzunehmen.

(48) Hochrisiko-KI-Systeme sollten so konzipiert und entwickelt werden, dass natürliche Personen ihre Funktionsweise überwachen können. Zu diesem Zweck sollte der Anbieter des Systems vor dem Inverkehrbringen oder der Inbetriebnahme geeignete Maßnahmen zur Gewährleistung der menschlichen Aufsicht festlegen. Insbesondere sollten solche Maßnahmen gegebenenfalls gewährleisten, dass das System integrierten Betriebseinschränkungen unterliegt, über die sich das System selbst nicht hinwegsetzen kann, dass es auf den menschlichen Bediener reagiert und dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen, um diese Aufgabe wahrzunehmen. Eine angemessene menschliche Aufsicht und alle nachfolgenden Eingriffe sollten nicht dazu führen, dass – entsprechend der Zweckbestimmung des Systems – die beabsichtigte Funktion des KI-Systems in einer Weise beeinträchtigt wird, die die Gesundheit, die Sicherheit oder die Grundrechte gefährdet.

Änderungsantrag  39

Vorschlag für eine Verordnung

Erwägung 48 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(48a) Die Empfehlungen zur menschlichen Aufsicht aus der Stellungnahme des Ausschusses für Umweltfragen, öffentliche Gesundheit und Lebensmittelsicherheit für den Rechtsausschuss mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien (2020/2012(INL)) sollen diese Verordnung ergänzen.

Änderungsantrag  40

Vorschlag für eine Verordnung

Erwägung 49

 

Vorschlag der Kommission

Geänderter Text

(49) Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit entsprechend dem allgemein anerkannten Stand der Technik aufweisen. Der Genauigkeitsgrad und die Genauigkeitskennzahlen sollte den Nutzern mitgeteilt werden.

(49) Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit entsprechend dem allgemein anerkannten Stand der Technik aufweisen. Der Genauigkeitsgrad und die Genauigkeitskennzahlen sollte den Nutzern und Endempfängern mitgeteilt werden.

Änderungsantrag  41

Vorschlag für eine Verordnung

Erwägung 50

 

Vorschlag der Kommission

Geänderter Text

(50) Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandfähig gegenüber Risiken im Zusammenhang mit den Grenzen des Systems (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen) sowie gegenüber böswilligen Eingriffen sein, die die Sicherheit des KI-Systems gefährden und zu schädlichen oder anderweitig unerwünschtem Verhalten führen können. Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ergebnisse hervorbringt.

(50) Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandfähig gegenüber Risiken im Zusammenhang mit den Grenzen des Systems (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen) sowie gegenüber böswilligen Eingriffen sein, die die Sicherheit des KI-Systems gefährden und zu schädlichen oder anderweitig unerwünschtem Verhalten führen können. Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Umwelt bzw. die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ergebnisse hervorbringt.

Änderungsantrag  42

Vorschlag für eine Verordnung

Erwägung 54

 

Vorschlag der Kommission

Geänderter Text

(54) Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation erstellen und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der betreffenden Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen.

(54) Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation erstellen, einschließlich des Energieverbrauchs und der CO2-Intensität des Systems, und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der betreffenden Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen. Wo es Überschneidungen mit einschlägigen und anwendbaren sektoralen Rechtsvorschriften gibt, sollte die entsprechende Terminologie entsprechend harmonisiert werden, um eine unnötige Fragmentierung zu verhindern.

Änderungsantrag  43

Vorschlag für eine Verordnung

Erwägung 59 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(59a) Angesichts der besonderen Art und der potenziellen Nutzung von KI-Systemen, die sich an natürliche Personen richten können, die keine Nutzer oder Betreiber sind, ist es wichtig, den Schutz bestimmter Rechte, insbesondere in Bezug auf Transparenz und die Bereitstellung von Informationen für Endempfänger wie Patienten von Gesundheitsdiensten, Studenten, Verbraucher sicherzustellen. Mit den geltenden Rechtsvorschriften sollte für die angemessene Art und das angemessene Maß an Transparenz sowie für die Bereitstellung spezifischer Informationen für Endempfänger gesorgt und ein deutlicher Unterschied für die Nutzer geschaffen werden, da dadurch der Schutz und die Nutzbarkeit von KI-Systemen und entsprechenden Komponenten verbessert werden können.

Änderungsantrag  44

Vorschlag für eine Verordnung

Erwägung 68

 

Vorschlag der Kommission

Geänderter Text

(68) Unter bestimmten Bedingungen kann die rasche Verfügbarkeit innovativer Technik für die Gesundheit und Sicherheit von Menschen und für die Gesellschaft insgesamt von entscheidender Bedeutung sein. Es ist daher angebracht, dass die Mitgliedstaaten aus außergewöhnlichen Gründen der öffentlichen Sicherheit, des Schutzes des Lebens und der Gesundheit natürlicher Personen und des Schutzes des gewerblichen und kommerziellen Eigentums das Inverkehrbringen oder die Inbetriebnahme von KI-Systemen, die keiner Konformitätsbewertung unterzogen wurden, genehmigen könnten.

(68) Unter bestimmten Bedingungen kann die rasche Verfügbarkeit innovativer Technik für die Gesundheit und Sicherheit von Menschen, die Umwelt und den Klimawandel und für die Gesellschaft insgesamt von entscheidender Bedeutung sein. Es ist daher angebracht, dass die Mitgliedstaaten aus außergewöhnlichen Gründen der öffentlichen Sicherheit, des Schutzes des Lebens und der Gesundheit natürlicher Personen, des Umweltschutzes und des Schutzes des gewerblichen und kommerziellen Eigentums das Inverkehrbringen oder die Inbetriebnahme von KI-Systemen, die keiner Konformitätsbewertung unterzogen wurden, genehmigen könnten.

Änderungsantrag  45

Vorschlag für eine Verordnung

Erwägung 70

 

Vorschlag der Kommission

Geänderter Text

(70) Bestimmte KI-Systeme, die mit natürlichen Personen interagieren oder Inhalte erzeugen sollen, können unabhängig davon, ob sie als hochriskant eingestuft werden, ein besonderes Risiko in Bezug auf Identitätsbetrug oder Täuschung bergen. Unter bestimmten Umständen sollte die Verwendung solcher Systeme daher – unbeschadet der Anforderungen an und Verpflichtungen für Hochrisiko-KI-Systeme – besonderen Transparenzpflichten unterliegen. Insbesondere sollte natürlichen Personen mitgeteilt werden, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Darüber hinaus sollten natürliche Personen informiert werden, wenn sie einem Emotionserkennungssystem oder einem System zur biometrischen Kategorisierung ausgesetzt sind. Diese Informationen und Mitteilungen sollten für Menschen mit Behinderungen in entsprechend barrierefrei zugänglicher Form bereitgestellt werden. Darüber hinaus sollten Nutzer, die ein KI-System zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten verwenden, die wirklichen Personen, Orten oder Ereignissen merklich ähneln und einer Person fälschlicherweise echt erscheinen würden, offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, indem sie die Ergebnisse künstlicher Intelligenz entsprechend kennzeichnen und auf ihren künstlichen Ursprung hinweisen.

(70) Bestimmte KI-Systeme, die mit natürlichen Personen interagieren oder Inhalte erzeugen sollen, können unabhängig davon, ob sie als hochriskant eingestuft werden, ein besonderes Risiko in Bezug auf Identitätsbetrug oder Täuschung bergen. Unter solchen Umständen sollte die Verwendung solcher Systeme daher – unbeschadet der Anforderungen an und Verpflichtungen für Hochrisiko-KI-Systeme – besonderen Transparenzpflichten unterliegen. Insbesondere sollte natürlichen Personen mitgeteilt werden, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Darüber hinaus sollten natürliche Personen informiert werden, wenn sie einem Emotionserkennungssystem oder einem System zur biometrischen Kategorisierung ausgesetzt sind. Diese Informationen und Mitteilungen sollten unter besonderer Berücksichtigung von Menschen mit Behinderungen rechtzeitig und in entsprechend barrierefrei zugänglicher Form bereitgestellt werden. Darüber hinaus sollten Nutzer, die ein KI-System zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten verwenden, die wirklichen Personen, Orten oder Ereignissen merklich ähneln und einer Person fälschlicherweise echt erscheinen würden, offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, indem sie die Ergebnisse künstlicher Intelligenz entsprechend kennzeichnen und auf ihren künstlichen Ursprung hinweisen.

Änderungsantrag  46

Vorschlag für eine Verordnung

Erwägung 71

 

Vorschlag der Kommission

Geänderter Text

(71) Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die neuartige Formen der Regulierungsaufsicht und einen sicheren Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen innovationsfreundlichen, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die zuständigen nationalen Behörden eines oder mehrerer Mitgliedstaaten angehalten werden, Reallabore für künstliche Intelligenz einzurichten, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern.

(71) Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die neuartige und wirksame Formen der Regulierungsaufsicht und einen sicheren Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen sichergestellt werden müssen. Um einen innovationsfreundlichen, zukunftssicheren, nachhaltigen und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die zuständigen nationalen Behörden eines oder mehrerer Mitgliedstaaten angehalten werden, Reallabore für künstliche Intelligenz einzurichten, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern, wobei der Schwerpunkt auf der Förderung nachhaltiger und umweltfreundlicher KI-Systeme liegen sollte.

Änderungsantrag  47

Vorschlag für eine Verordnung

Erwägung 72

 

Vorschlag der Kommission

Geänderter Text

(72) Die Ziele der Reallabore sollten darin bestehen, Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Erprobungsumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderen einschlägigen Rechtsvorschriften der Union und der Mitgliedstaaten in Einklang stehen. Darüber hinaus sollen sie die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und der Auswirkungen der KI-Nutzung verbessern und den Marktzugang beschleunigen, unter anderem indem Hindernisse für kleine und mittlere Unternehmen (KMU) und Start-up-Unternehmen abgebaut werden. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die am Reallabor Beteiligten sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der am Reallabor Beteiligten sollte berücksichtigt werden, wenn die zuständigen Behörden entscheiden, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.

(72) Die Ziele der Reallabore sollten darin bestehen, Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Erprobungsumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderen einschlägigen Rechtsvorschriften der Union und der Mitgliedstaaten in Einklang stehen. Darüber hinaus sollen sie die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und der Auswirkungen der KI-Nutzung verbessern und den Marktzugang beschleunigen, unter anderem indem Hindernisse für kleine und mittlere Unternehmen (KMU) und Start-up-Unternehmen abgebaut werden. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die am Reallabor Beteiligten sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit, die Gesundheit, die Umwelt und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der am Reallabor Beteiligten sollte berücksichtigt werden, wenn die zuständigen Behörden entscheiden, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.

Änderungsantrag  48

Vorschlag für eine Verordnung

Erwägung 73 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(73a) Um eine nachhaltigere und umweltfreundlichere Innovation zu fördern, sollten die Kommission und die Mitgliedstaaten Leitlinien und Methoden für effiziente Algorithmen veröffentlichen, die Daten und vorab trainierte Modelle im Hinblick auf eine Rationalisierung der Trainingsaktivitäten liefern. Die Entwicklung von bewährten Verfahren würde auch die Identifizierung und anschließende Entwicklung von Lösungen für die dringendsten ökologischen Herausforderungen von KI-Systemen erleichtern – auch im Hinblick auf die Entwicklung des grünen KI-Labels.

Änderungsantrag  49

Vorschlag für eine Verordnung

Erwägung 74

 

Vorschlag der Kommission

Geänderter Text

(74) Um die Risiken bei der Durchführung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern und notifizierten Stellen die Einhaltung ihrer Verpflichtungen aus dieser Verordnung zu erleichtern, sollten die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden, möglichst zur Durchführung dieser Verordnung beitragen. Sie können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen.

(74) Um die Risiken bei der Durchführung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern und notifizierten Stellen die Einhaltung ihrer Verpflichtungen aus dieser Verordnung zu erleichtern, sollten die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation, das Europäische Innovations- und Technologieinstitut und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden, möglichst zur Durchführung dieser Verordnung beitragen. Sie können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen.

Änderungsantrag  50

Vorschlag für eine Verordnung

Erwägung 76

 

Vorschlag der Kommission

Geänderter Text

(76) Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschlägen oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz beraten und unterstützen.

(76) Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschläge oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, eine KI-Nachhaltigkeits-Taskforce für die nachhaltige Entwicklung von künstlicher Intelligenz einrichten und harmonisierte Kriterien für nachhaltige technische Spezifikationen, bestehende Normen und bewährte Verfahren in Bezug auf die in dieser Verordnung festgelegten Anforderungen entwickeln; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz fachlich beraten und unterstützen, damit neu entstehende grenzüberschreitende Herausforderungen, die sich aus der raschen technologischen Entwicklung ergeben, besser bewältigt werden können.

Änderungsantrag  51

Vorschlag für eine Verordnung

Erwägung 76 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(76a) Um für ein gemeinsames stimmiges Konzept für den Einsatz und die Umsetzung von KI-Systemen in den unterschiedlichen entsprechenden Bereichen und Branchen zu sorgen und potenzielle Synergieeffekte und Komplementaritäten zu nutzen, sollte der Ausschuss eng mit anderen einschlägigen auf EU-Ebene eingerichteten sektoralen Beratungsgruppen zusammenarbeiten, darunter Gremien, Ausschüsse und Expertengruppen, einschließlich Organisationen der Zivilgesellschaft wie nichtstaatliche Organisationen, Verbraucherschutzverbände und Vertreter der Industrie mit Kompetenzen in Bereichen im Zusammenhang mit digitalen Technologien oder künstlicher Intelligenz, wie Governance, Austausch, Zugang zu sowie Nutzung und Weiterverwendung von Daten, einschließlich Gesundheitsdaten oder Umweltinformationen, wobei Doppelarbeit zu verhindern ist.

Änderungsantrag  52

Vorschlag für eine Verordnung

Erwägung 78

 

Vorschlag der Kommission

Geänderter Text

(78) Damit Anbieter von Hochrisiko-KI-Systemen die Erfahrungen mit der Verwendung von Hochrisiko-KI-Systemen bei der Verbesserung ihrer Systeme und im Konzeptions- und Entwicklungsprozess berücksichtigen oder rechtzeitig etwaige Korrekturmaßnahmen ergreifen können, sollten alle Anbieter über ein System zur Beobachtung nach dem Inverkehrbringen verfügen. Dieses System ist auch wichtig, damit den möglichen Risiken, die von KI-Systemen ausgehen, die nach dem Inverkehrbringen oder der Inbetriebnahme dazulernen, wirksamer und zeitnah begegnet werden kann. In diesem Zusammenhang sollten die Anbieter auch verpflichtet sein, ein System einzurichten, um den zuständigen Behörden schwerwiegende Vorfälle oder Verstöße gegen nationales Recht und Unionsrecht zum Schutz der Grundrechte zu melden, die sich aus der Verwendung ihrer KI-Systeme ergeben.

(78) Damit Anbieter von Hochrisiko-KI-Systemen die Erfahrungen mit der Verwendung von Hochrisiko-KI-Systemen bei der Verbesserung ihrer Systeme und im Konzeptions- und Entwicklungsprozess berücksichtigen oder rechtzeitig etwaige Korrekturmaßnahmen ergreifen können, sollten alle Anbieter über ein System zur Beobachtung nach dem Inverkehrbringen verfügen. Dieses System ist auch wichtig, damit den möglichen Risiken, die von KI-Systemen ausgehen, die nach dem Inverkehrbringen oder der Inbetriebnahme dazulernen, wirksamer und zeitnah begegnet werden kann. In diesem Zusammenhang sollten die Anbieter auch verpflichtet sein, ein System einzurichten, um den zuständigen Behörden schwerwiegende Vorfälle oder Verstöße gegen nationales Recht und Unionsrecht zum Schutz der Grundrechte zu melden, die sich aus der Verwendung ihrer KI-Systeme ergeben. Ebenso sollten Organisationen der Zivilgesellschaft und andere Interessenträger die Möglichkeit haben, Beiträge zu leisten und Beschwerden einzureichen, wenn der Schutz der Grundrechte oder des öffentlichen Interesses gefährdet ist.

Änderungsantrag  53

Vorschlag für eine Verordnung

Erwägung 81

 

Vorschlag der Kommission

Geänderter Text

(81) Die Entwicklung anderer KI-Systeme als Hochrisiko-KI-Systeme im Einklang mit den Anforderungen dieser Verordnung kann zu einer stärkeren Verbreitung vertrauenswürdiger künstlicher Intelligenz in der Union führen. Anbieter von KI-Systemen, die kein hohes Risiko bergen, sollten angehalten werden, Verhaltenskodizes zu erstellen, um eine freiwillige Anwendung der für Hochrisiko-KI-Systeme verbindlichen Anforderungen zu fördern. Darüber hinaus sollten die Anbieter auch ermutigt werden, freiwillig zusätzliche Anforderungen anzuwenden, z. B. in Bezug auf die ökologische Nachhaltigkeit, die barrierefreie Zugänglichkeit für Menschen mit Behinderungen, die Beteiligung der Interessenträger an der Konzeption und Entwicklung von KI-Systemen und die Vielfalt der Entwicklungsteams. Die Kommission kann Initiativen, auch sektoraler Art, ergreifen, um den Abbau technischer Hindernisse zu erleichtern, die den grenzüberschreitenden Datenaustausch im Zusammenhang mit der KI-Entwicklung behindern, unter anderem in Bezug auf die Infrastruktur für den Datenzugang und die semantische und technische Interoperabilität verschiedener Arten von Daten.

(81) Die Entwicklung anderer KI-Systeme als Hochrisiko-KI-Systeme im Einklang mit den Anforderungen dieser Verordnung sollte zu einer stärkeren Verbreitung vertrauenswürdiger künstlicher Intelligenz in der Union führen. Anbieter von KI-Systemen, die kein hohes Risiko bergen, sollten angehalten werden, Verhaltenskodizes zu erstellen, um eine freiwillige Anwendung der für Hochrisiko-KI-Systeme verbindlichen Anforderungen zu fördern. Darüber hinaus sollten die Anbieter auch ermutigt werden, freiwillig zusätzliche Anforderungen anzuwenden, z. B. in Bezug auf einen risikobasierten Ansatz, der sich auf die direkten und indirekten Auswirkungen auf die ökologische Nachhaltigkeit, die Energieeffizienz und die CO2-Intensität, die barrierefreie Zugänglichkeit für Menschen mit Behinderungen, die Beteiligung der Interessenträger an der Konzeption und Entwicklung von KI-Systemen und die Vielfalt der Entwicklungsteams. Die Kommission kann Initiativen, auch sektoraler Art, ergreifen, um den Abbau technischer Hindernisse zu erleichtern, die den grenzüberschreitenden Datenaustausch im Zusammenhang mit der KI-Entwicklung behindern, unter anderem in Bezug auf die Infrastruktur für den Datenzugang und die semantische und technische Interoperabilität verschiedener Arten von Daten.

Änderungsantrag  54

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) harmonisierte Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Systemen der künstlichen Intelligenz (im Folgenden „KI-Systeme“) in der Union;

a) harmonisierte Vorschriften zur Sicherstellung des Schutzes des öffentlichen Interesses, der Gesundheit und Sicherheit der Verbraucher und des Umweltschutzes für das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Systemen der künstlichen Intelligenz (im Folgenden „KI-Systeme“) in der Union;

Änderungsantrag  55

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

4a. „Endempfänger“ jede natürliche oder juristische Person, bei der es sich nicht um einen Betreiber handelt, für die das Ergebnis des Einsatzes eines KI-Systems bestimmt ist oder für die dieses Ergebnis bereitgestellt wird;

Änderungsantrag  56

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 14

 

Vorschlag der Kommission

Geänderter Text

14. „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Sachen gefährdet;

14. „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Sachen oder den Klima- und Umweltschutz gefährdet;

Änderungsantrag  57

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 15

 

Vorschlag der Kommission

Geänderter Text

15. „Gebrauchsanweisung“ die Informationen, die der Anbieter bereitstellt, um den Nutzer insbesondere über die Zweckbestimmung und die ordnungsgemäße Verwendung eines KI-Systems zu informieren, einschließlich der besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen ein Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll;

15. „Gebrauchsanweisung“ die Informationen, die der Anbieter bereitstellt, um den Nutzer oder Endempfänger insbesondere über die Zweckbestimmung und die ordnungsgemäße Verwendung eines KI-Systems zu informieren, einschließlich der besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen ein Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll;

Änderungsantrag  58

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 24 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

24b. „Gütesiegel für grüne KI“ ein Gütesiegel, mit dem die CO2-ärmsten und energieeffizientesten KI-Systeme gekennzeichnet werden und mit dem Techniken und Verfahren gefördert werden, die zum Zweck einer besseren Effizienz eingesetzt werden;

Änderungsantrag  59

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 34

 

Vorschlag der Kommission

Geänderter Text

34. „Emotionserkennungssystem“ ein KI-System, das dem Zweck dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten festzustellen oder daraus abzuleiten;

34. „Emotionserkennungssystem“ ein KI-System, das dem Zweck dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen oder neurologischen Daten festzustellen oder daraus abzuleiten;

Änderungsantrag  60

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person einsetzt, um das Verhalten einer Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen physischen oder psychischen Schaden zufügt oder zufügen kann;

a) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das psychologische Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person einsetzt, um das Verhalten einer Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen wirtschaftlichen, physischen oder psychischen Schaden zufügt oder zufügen kann;

Begründung

Diskriminierende KI-gesteuerte Preisoptimierungsstrategien sollten nicht zugelassen werden – beispielsweise Versicherungsunternehmen, die die Preise gezielt für jene Verbraucher erhöhen, bei denen es laut KI-Systemen weniger wahrscheinlich ist, dass sie den Anbieter wechseln.

Änderungsantrag  61

Vorschlag für eine Verordnung

Artikel 5 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das eine Schwäche oder Schutzbedürftigkeit einer bestimmten Gruppe von Personen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung ausnutzt, um das Verhalten einer dieser Gruppe angehörenden Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen physischen oder psychischen Schaden zufügt oder zufügen kann;

b) das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das eine Schwäche oder Schutzbedürftigkeit einer bestimmten Gruppe von Personen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Beeinträchtigung, einschließlich Sucht, Trauer oder einer Notlage, ausnutzt, um das Verhalten einer dieser Gruppe angehörenden Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen wirtschaftlichen, physischen oder psychischen Schaden zufügt oder zufügen kann;

Begründung

Der Schutz schutzbedürftiger Bürger sollte auch diejenigen einschließen, die nur vorübergehend schutzbedürftig sind, z. B. durch Sucht oder einen Trauerfall, damit sie vor dem Einsatz KI-gesteuerter, persuasiver Profilerstellung geschützt werden, die z. B. auf Dating- und Glücksspiel-Websites verwendet wird.

Änderungsantrag  62

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) die KI-Systeme sollen in einem der in Anhang III Nummern 1 bis 8 aufgeführten Bereiche eingesetzt werden;

a) die KI-Systeme sollen in einem der in Anhang III Nummern 1 bis 9 aufgeführten Bereiche eingesetzt werden;

Änderungsantrag  63

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) die KI-Systeme bergen ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder nachteiliger Auswirkungen auf die Grundrechte, das im Hinblick auf die Schwere und die Wahrscheinlichkeit des Eintretens dem Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt.

b) die KI-Systeme bergen ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder nachteiliger Auswirkungen auf den Klimaschutz und die Anpassung an den Klimawandel, die Umwelt und die Grundrechte, das im Hinblick auf die Schwere und die Wahrscheinlichkeit des Eintretens dem Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt.

Änderungsantrag  64

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Bewertung für die Zwecke des Absatzes 1, ob ein KI-System ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder ein Risiko nachteiliger Auswirkungen auf die Grundrechte birgt, das dem Risiko der Schädigung oder Beeinträchtigung gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt, berücksichtigt die Kommission folgende Kriterien:

(2) Bei der Bewertung für die Zwecke des Absatzes 1, ob ein KI-System ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder ein Risiko nachteiliger Auswirkungen auf das Klima, die Umwelt oder die Grundrechte birgt, das dem Risiko der Schädigung oder Beeinträchtigung gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt, berücksichtigt die Kommission folgende Kriterien:

Änderungsantrag  65

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit geschädigt, die Sicherheit beeinträchtigt oder negative Auswirkungen auf die Grundrechte verursacht worden sind oder nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Behörden übermittelt werden, Anlass zu erheblichen Bedenken hinsichtlich des Eintretens solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen besteht;

c) das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit geschädigt, die Sicherheit beeinträchtigt oder negative Auswirkungen auf das Klima, die Umwelt und die Grundrechte verursacht worden sind oder nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Behörden übermittelt werden, Anlass zu erheblichen Bedenken hinsichtlich des Eintretens solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen besteht;

Änderungsantrag  66

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) das potenzielle Ausmaß solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, eine Vielzahl von Personen zu beeinträchtigen;

d) das potenzielle Ausmaß solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, eine Vielzahl von Personen, die Umwelt oder die biologische Vielfalt zu beeinträchtigen;

Änderungsantrag  67

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen von dem von einem KI-System hervorgebrachten Ergebnis abhängen, weil es insbesondere aus praktischen oder rechtlichen Gründen nach vernünftigem Ermessen unmöglich ist, sich diesem Ergebnis zu entziehen;

e) das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen, einschließlich Endempfänger, von dem von einem KI-System hervorgebrachten Ergebnis abhängen, weil es insbesondere aus praktischen oder rechtlichen Gründen nach vernünftigem Ermessen unmöglich ist, sich diesem Ergebnis zu entziehen;

Änderungsantrag  68

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen gegenüber dem Nutzer eines KI-Systems schutzbedürftig sind, insbesondere aufgrund eines Ungleichgewichts in Bezug auf Machtposition, Wissen, wirtschaftliche oder soziale Umstände oder Alter;

f) das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen gegenüber dem Nutzer eines KI-Systems schutzbedürftig sind, insbesondere aufgrund eines Ungleichgewichts in Bezug auf Machtposition, Wissen, wirtschaftliche, ökologische oder soziale Umstände oder Alter;

Änderungsantrag  69

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) das Ausmaß, in dem das mit einem KI-System hervorgebrachte Ergebnis leicht rückgängig zu machen ist, wobei Ergebnisse, die sich auf die Gesundheit oder Sicherheit von Personen auswirken, nicht als leicht rückgängig zu machen gelten;

g) das Ausmaß, in dem das mit einem KI-System hervorgebrachte Ergebnis leicht rückgängig zu machen ist, wobei Ergebnisse, die sich nachteilig auf das Klima, die Umwelt, die biologische Vielfalt, die Fähigkeit zur Verwirklichung der Ziele zur Verringerung der Treibhausgasemissionen oder die Gesundheit oder Sicherheit von Personen auswirken, nicht als leicht rückgängig zu machen gelten;

Änderungsantrag  70

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass jedes mit einer bestimmten Gefahr verbundene Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme als vertretbar beurteilt werden kann, sofern das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird. Diese Restrisiken müssen den Nutzern mitgeteilt werden.

Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass jedes mit einer bestimmten Gefahr verbundene Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme als vertretbar beurteilt werden kann, sofern das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird. Diese Restrisiken müssen den Nutzern und Endempfängern mitgeteilt werden.

Änderungsantrag  71

Vorschlag für eine Verordnung

Artikel 10 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Diese Merkmale der Datensätze können durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.

(3) Die Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll, einschließlich der Endempfänger. Diese Merkmale der Datensätze können durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.

Änderungsantrag  72

Vorschlag für eine Verordnung

Artikel 10 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Trainings-, Validierungs- und Testdatensätze müssen, soweit dies für die Zweckbestimmung erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.

(4) Die Trainings-, Validierungs- und Testdatensätze müssen, soweit dies für die Zweckbestimmung erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, ökologischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.

Änderungsantrag  73

Vorschlag für eine Verordnung

Artikel 10 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Soweit dies für die Beobachtung, Erkennung und Korrektur von Verzerrungen im Zusammenhang mit Hochrisiko-KI-Systemen unbedingt erforderlich ist, dürfen die Anbieter solcher Systeme besondere Kategorien personenbezogener Daten gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 der Richtlinie (EU) 2016/680 und Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 verarbeiten, wobei sie angemessene Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen treffen müssen, wozu auch technische Beschränkungen einer Weiterverwendung und modernste Sicherheits- und Datenschutzmaßnahmen wie Pseudonymisierung oder Verschlüsselung gehören, wenn der verfolgte Zweck durch eine Anonymisierung erheblich beeinträchtigt würde.

(5) Soweit dies für die Beobachtung, Erkennung und Korrektur von Verzerrungen im Zusammenhang mit Hochrisiko-KI-Systemen und für die Sicherstellung der Nichtdiskriminierung durch Algorithmen unbedingt erforderlich ist, dürfen die Anbieter solcher Systeme besondere Kategorien personenbezogener Daten gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 der Richtlinie (EU) 2016/680 und Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 verarbeiten, wobei sie angemessene Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen treffen müssen, wozu auch technische Beschränkungen einer Weiterverwendung und modernste Sicherheits- und Datenschutzmaßnahmen wie Pseudonymisierung oder Verschlüsselung gehören, wenn der verfolgte Zweck durch eine Anonymisierung erheblich beeinträchtigt würde.

Änderungsantrag  74

Vorschlag für eine Verordnung

Artikel 13 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Transparenz und Bereitstellung von Informationen für die Nutzer

Transparenz und Bereitstellung von Informationen für die Nutzer und Endempfänger

Änderungsantrag  75

Vorschlag für eine Verordnung

Artikel 13 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Nutzer die Ergebnisse des Systems angemessen interpretieren und verwenden können. Die Transparenz wird auf eine geeignete Art und in einem angemessenen Maß gewährleistet, damit die Nutzer und Anbieter ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Nutzer und Endempfänger die Ergebnisse des Systems angemessen interpretieren und verwenden können. Die Transparenz wird auf eine geeignete Art und in einem angemessenen Maß gewährleistet, damit die Nutzer, Endempfänger und Anbieter ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.

Änderungsantrag  76

Vorschlag für eine Verordnung

Artikel 13 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Hochrisiko-KI-Systeme werden mit Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen versehen, die präzise, vollständige, korrekte und eindeutige Informationen in einer für die Nutzer relevanten, barrierefrei zugänglichen und verständlichen Form enthalten.

(2) Hochrisiko-KI-Systeme werden mit Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen versehen, die präzise, vollständige, korrekte und eindeutige Informationen in einer für die Nutzer relevanten, barrierefrei zugänglichen und verständlichen Form enthalten, auch hinsichtlich möglicher Risiken in Bezug auf die Grundrechte und Diskriminierung.

Änderungsantrag  77

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer iii

 

Vorschlag der Kommission

Geänderter Text

iii) aller bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit oder die Grundrechte führen können,

iii) aller bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit, die Umwelt oder die Grundrechte führen können,

Änderungsantrag  78

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Hochrisiko-KI-Systeme werden entsprechend ihrer Zweckbestimmung so konzipiert, entwickelt und genutzt, dass ihre Ergebnisse für die Endempfänger hinreichend transparent, relevant, barrierefrei zugänglich und verständlich sind.

Änderungsantrag  79

Vorschlag für eine Verordnung

Artikel 14 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit oder die Grundrechte, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen.

(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Desinformation sowie der Risiken für die Gesundheit, die Sicherheit, das Klima und die Umwelt oder die Grundrechte, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen.

Änderungsantrag  80

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen.

e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen, sofern dadurch die beabsichtigte Funktion des KI-Systems nicht in einer Weise beeinträchtigt wird, die die Gesundheit, die Sicherheit oder die Grundrechte gefährdet.

Änderungsantrag  81

Vorschlag für eine Verordnung

Artikel 26 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) das System mit der erforderlichen Konformitätskennzeichnung versehen ist und ihm die erforderlichen Unterlagen und Gebrauchsanweisungen beigefügt sind.

c) das System mit der erforderlichen Konformitätskennzeichnung versehen ist und ihm die erforderlichen, präzise und eindeutig formulierten Unterlagen und Gebrauchsanweisungen beigefügt sind, auch hinsichtlich möglicher Risiken in Bezug auf die Grundrechte und Diskriminierung.

Änderungsantrag  82

Vorschlag für eine Verordnung

Artikel 43 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei den in Anhang III Nummern 2 bis 8 aufgeführten Hochrisiko-KI-Systemen befolgen die Anbieter das Konformitätsbewertungsverfahren auf der Grundlage einer internen Kontrolle gemäß Anhang VI, das keine Beteiligung einer notifizierten Stelle vorsieht. Bei den in Anhang III Nummer 5 Buchstabe b genannten Hochrisiko-KI-Systemen, die von Kreditinstituten im Sinne der Richtlinie 2013/36/EU in Verkehr gebracht oder in Betrieb genommen werden, erfolgt die Konformitätsbewertung im Rahmen des in den Artikeln 97 bis 101 der Richtlinie genannten Verfahrens.

(2) Bei den in Anhang III Nummern 2 bis 9 aufgeführten Hochrisiko-KI-Systemen befolgen die Anbieter das Konformitätsbewertungsverfahren auf der Grundlage einer internen Kontrolle gemäß Anhang VI, das keine Beteiligung einer notifizierten Stelle vorsieht. Bei den in Anhang III Nummer 5 Buchstabe b genannten Hochrisiko-KI-Systemen, die von Kreditinstituten im Sinne der Richtlinie 2013/36/EU in Verkehr gebracht oder in Betrieb genommen werden, erfolgt die Konformitätsbewertung im Rahmen des in den Artikeln 97 bis 101 der Richtlinie genannten Verfahrens.

Änderungsantrag  83

Vorschlag für eine Verordnung

Artikel 43 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen.

(6) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit, die Umwelt und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen.

Änderungsantrag  84

Vorschlag für eine Verordnung

Artikel 52 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, insbesondere im Gesundheitswesen, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.

Änderungsantrag  85

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Den Empfängern eines KI-Systems im Bereich der Gesundheitsversorgung muss mitgeteilt werden, dass sie mit einem KI-System interagieren.

Änderungsantrag  86

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3b) Öffentliche Behörden und Verwaltungsbehörden, die mithilfe von KI-Systemen Entscheidungen treffen, müssen dies in klarer und verständlicher Weise erläutern. Diese Erläuterung muss für Menschen mit Behinderungen und andere schutzbedürftige Gruppen zugänglich sein.

Änderungsantrag  87

Vorschlag für eine Verordnung

Artikel 53 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden unberührt. Alle erheblichen Risiken für die Gesundheit und Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung solcher Systeme festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses bis eine solche Risikominderung erfolgt ist.

(3) Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden unberührt. Alle erheblichen Risiken für den Klimaschutz, die Umwelt, die Gesundheit und Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung solcher Systeme festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses bis eine solche Risikominderung erfolgt ist.

Änderungsantrag  88

Vorschlag für eine Verordnung

Artikel 53 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die am KI-Reallabor Beteiligten bleiben nach geltendem Recht der Union und der Mitgliedstaaten für Schäden haftbar, die Dritten infolge der Erprobung im Reallabor entstehen.

(4) Die am KI-Reallabor Beteiligten bleiben nach geltendem Recht der Union und der Mitgliedstaaten für Schäden haftbar, die Dritten oder der Umwelt infolge der Erprobung im Reallabor entstehen.

Änderungsantrag  89

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe a – Ziffer ii

 

Vorschlag der Kommission

Geänderter Text

ii) öffentliche Sicherheit und öffentliche Gesundheit, einschließlich Verhütung, Bekämpfung und Behandlung von Krankheiten,

ii) öffentliche Sicherheit und öffentliche Gesundheit, einschließlich Erkennung, Diagnose, Verhütung, Bekämpfung und Behandlung von Krankheiten, sowie gesundheitliche Herausforderungen im Zusammenhang mit den Verknüpfungen der Gesundheit von Mensch und Tier, insbesondere Zoonosen,

Änderungsantrag  90

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe a – Ziffer iii

 

Vorschlag der Kommission

Geänderter Text

iii) hohes Umweltschutzniveau und Verbesserung der Umweltqualität;

iii) hohes Umweltschutzniveau und Verbesserung der Umweltqualität, Schutz der biologischen Vielfalt, Umweltverschmutzung sowie Klimaschutz und Anpassung an den Klimawandel;

Änderungsantrag  91

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe a – Ziffer iii a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiia) der Grundsatz der Datenminimierung ist einzuhalten, d. h., die Datenerfassung und -verarbeitung ist auf das für den Zweck der KI-Anwendung unbedingt erforderliche Maß zu beschränken;

Änderungsantrag  92

Vorschlag für eine Verordnung

Artikel 56 – Absatz 2 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Koordinierung und Mitwirkung an Leitlinien und Analysen der Kommission, der nationalen Aufsichtsbehörden und anderer zuständiger Behörden zu neu auftretenden Fragen in Bezug auf Angelegenheiten, die unter diese Verordnung fallen, im gesamten Binnenmarkt;

b) Koordinierung und Mitwirkung an Leitlinien und Analysen der Kommission, der nationalen Aufsichtsbehörden  und der Beratungs- und Sachverständigengruppen, darunter Organisationen der Zivilgesellschaft wie nichtstaatliche Organisationen, Verbraucherschutzverbände und Vertreter der Industrie, sowie anderer zuständiger Behörden zu neu auftretenden Fragen in Bezug auf Angelegenheiten, die unter diese Verordnung fallen, im gesamten Binnenmarkt;

Änderungsantrag  93

Vorschlag für eine Verordnung

Artikel 57 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, und dem Europäischen Datenschutzbeauftragten. Weitere nationale Behörden können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind.

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, und dem Europäischen Datenschutzbeauftragten. Weitere nationale Behörden, einschließlich solcher, die einschlägigen Beratungs- und Sachverständigengruppen auf Unionsebene angehören, können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind.

 

Änderungsantrag  94

Vorschlag für eine Verordnung

Artikel 57 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Der Ausschuss kann externe Sachverständige und Beobachter zu seinen Sitzungen einladen und einen Meinungsaustausch mit interessierten Dritten führen, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Verwaltungsrat und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union fördern.

(4) Der Ausschuss kann externe Sachverständige, Ethiker und Beobachter zu seinen Sitzungen einladen und einen Meinungsaustausch mit interessierten Dritten – einschließlich Organisationen der Zivilgesellschaft wie nichtstaatliche Organisationen, Verbraucherschutzverbände, Menschenrechtsgruppen, zwischenstaatliche Organisationen und Vertreter der Industrie – führen, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Verwaltungsrat und anderen einschlägigen Einrichtungen, Ämtern, Agenturen und beratenden Sachverständigengruppen der Union fördern.

Änderungsantrag  95

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Sammlung von Fachwissen und bewährten Verfahren und deren Austausch zwischen den Mitgliedstaaten;

a) Sammlung von technischem und regulatorischem Fachwissen und bewährten Verfahren und deren Austausch zwischen den Mitgliedstaaten;

Begründung

Es sollte präzisiert werden, dass sowohl die technischen als auch die regulatorischen Aspekte berücksichtigt werden.

Änderungsantrag  96

Vorschlag für eine Verordnung

Artikel 58 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) Sicherstellung, dass von den verschiedenen auf Unionsebene eingerichteten Beratungs- und Sachverständigengruppen in Angelegenheiten, die unter diese Verordnung fallen oder mit KI-Systemen zusammenhängen, ein gemeinsamer und kohärenter Ansatz verfolgt wird.

Änderungsantrag  97

Vorschlag für eine Verordnung

Artikel 59 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Um die Anwendung und Durchführung dieser Verordnung sicherzustellen, werden von jedem Mitgliedstaat zuständige nationale Behörden eingerichtet oder benannt. Die notifizierenden Behörden werden so organisiert, dass bei der Ausübung ihrer Tätigkeiten und der Wahrnehmung ihrer Aufgaben Objektivität und Unparteilichkeit gewahrt sind.

(1) Um die Anwendung und Durchführung dieser Verordnung und der horizontalen Rechtsvorschriften der Union sicherzustellen, werden von jedem Mitgliedstaat zuständige nationale Behörden eingerichtet oder benannt. Die zuständigen nationalen Behörden werden so organisiert, dass bei der Ausübung ihrer Tätigkeiten und der Wahrnehmung ihrer Aufgaben Objektivität, Kohärenz und Unparteilichkeit gewahrt sind, um Interessenkonflikte zu vermeiden.

Änderungsantrag  98

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Mitgliedstaaten sorgen dafür, dass die zuständigen nationalen Behörden mit angemessenen finanziellen und personellen Ressourcen ausgestattet werden, damit sie ihre Aufgaben im Rahmen dieser Verordnung wahrnehmen können. Insbesondere müssen die zuständigen nationalen Behörden ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten und Datenverarbeitung, der Grundrechte, der Gesundheits- und Sicherheitsrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen.

(4) Die Mitgliedstaaten sorgen dafür, dass die zuständigen nationalen Behörden mit angemessenen finanziellen und personellen Ressourcen ausgestattet werden, damit sie ihre Aufgaben im Rahmen dieser Verordnung wahrnehmen können. Insbesondere müssen die zuständigen nationalen Behörden ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, des Datenschutzes und der Datenverarbeitung, der Grundrechte, der Gesundheits-, Sicherheits- und Umweltrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen.

Änderungsantrag  99

Vorschlag für eine Verordnung

Artikel 62 – Absatz 1 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Anbieter von in der Union in Verkehr gebrachten Hochrisiko-KI-Systemen, melden schwerwiegende Vorfälle oder Fehlfunktionen dieser Systeme, die einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte darstellen, den Marktüberwachungsbehörden des Mitgliedstaats, in dem der Vorfall oder der Verstoß stattgefunden hat.

Anbieter von in der Union in Verkehr gebrachten Hochrisiko-KI-Systemen, melden schwerwiegende Vorfälle oder Fehlfunktionen dieser Systeme, die einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Gesundheit, der Sicherheit, der Grundrechte und der Umwelt darstellen, den Marktüberwachungsbehörden des Mitgliedstaats, in dem der Vorfall oder der Verstoß stattgefunden hat.

Änderungsantrag  100

Vorschlag für eine Verordnung

Artikel 65 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Als KI-Systeme, die ein Risiko bergen, gelten Produkte, mit denen ein Risiko im Sinne des Artikels 3 Nummer 19 der Verordnung (EU) 2019/1020 verbunden ist, sofern es sich dabei um Risiken für die Gesundheit oder Sicherheit oder den Schutz der Grundrechte von Personen handelt.

(1) Als KI-Systeme, die ein Risiko bergen, gelten Produkte, mit denen ein Risiko im Sinne des Artikels 3 Nummer 19 der Verordnung (EU) 2019/1020 verbunden ist, sofern es sich dabei um Risiken für die Gesundheit oder Sicherheit, den Verbraucher- und den Umweltschutz oder den Schutz der Grundrechte von Personen handelt.

Änderungsantrag  101

Vorschlag für eine Verordnung

Artikel 67 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Stellt die Marktüberwachungsbehörde nach der gemäß Artikel 65 durchgeführten Prüfung fest, dass ein KI-System dieser Verordnung entspricht, jedoch trotzdem ein Risiko für die Gesundheit oder Sicherheit von Personen, für die Einhaltung der Pflichten aus dem Unionsrecht oder dem nationalen Recht zum Schutz der Grundrechte oder für andere Aspekte des Schutzes öffentlicher Interessen darstellt, fordert sie den betreffenden Akteur auf, alle geeigneten und von ihr möglicherweise vorgegebenen Maßnahmen zu treffen, damit das betreffende KI-System zum Zeitpunkt des Inverkehrbringens oder der Inbetriebnahme dieses Risiko nicht mehr birgt, oder das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist zurückzurufen.

(1) Stellt die Marktüberwachungsbehörde nach der gemäß Artikel 65 durchgeführten Prüfung fest, dass ein KI-System dieser Verordnung entspricht, jedoch trotzdem ein Risiko für die Gesundheit oder Sicherheit von Personen, für die Umwelt, für die Einhaltung der Pflichten aus dem Unionsrecht oder dem nationalen Recht zum Schutz der Grundrechte oder für andere Aspekte des Schutzes öffentlicher Interessen darstellt, fordert sie den betreffenden Akteur auf, alle geeigneten und von ihr möglicherweise vorgegebenen Maßnahmen zu treffen, damit das betreffende KI-System zum Zeitpunkt des Inverkehrbringens oder der Inbetriebnahme dieses Risiko nicht mehr birgt, oder das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist zurückzurufen.

Änderungsantrag  102

Vorschlag für eine Verordnung

Artikel 69 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Kommission und der Ausschuss fördern und erleichtern die Aufstellung von Verhaltenskodizes, mit denen erreicht werden soll, dass KI-Systeme freiwillig weitere Anforderungen erfüllen, die sich beispielsweise auf die ökologische Nachhaltigkeit, die barrierefreie Zugänglichkeit für Personen mit Behinderungen, die Beteiligung von Interessenträgern an der Konzeption und Entwicklung von KI-Systemen und die Vielfalt der Entwicklungsteams beziehen, wobei die Erreichung dieser Ziele anhand klarer Vorgaben und wesentlicher Leistungsindikatoren gemessen wird.

(2) Die Kommission und der Ausschuss fördern und erleichtern die Aufstellung von Verhaltenskodizes, mit denen erreicht werden soll, dass KI-Systeme freiwillig weitere Anforderungen erfüllen und die mit einem EU-Verhaltenskodex für die Energieeffizienz von Datenzentren im Zusammenhang stehen, der Schlüsselindikatoren in Bezug auf die ökologische Nachhaltigkeit, den Ressourcenverbrauch, die Energieeffizienz und die CO2-Intensität, den Anteil der aus erneuerbaren Quellen erzeugten Energie und die Wiederverwendung von Wärme und Abfällen enthält. Dies könnte noch ausgeweitet werden, um die barrierefreie Zugänglichkeit für Personen mit Behinderungen, die Beteiligung von Interessenträgern an der Konzeption und Entwicklung von KI-Systemen sowie die Vielfalt der Entwicklungsteams zu fördern, wobei die Erreichung dieser Ziele anhand klarer Vorgaben und wesentlicher Leistungsindikatoren gemessen wird. Um die freiwillige Durchführung von Umweltprüfungen zu fördern, entwickelt die Kommission im Wege eines Durchführungsrechtsakts ein Verfahren, eine Methodik, Mindeststandards und eine Skala, die auf freiwilliger Basis auf alle KI-Systeme angewendet werden können und darauf abzielen, die Offenlegung von Informationen über den Energieverbrauch beim Trainieren und der Ausführung von KI-Systemen sowie über deren CO2-Intensität zu erleichtern, um die Entwicklung energieeffizienter und CO2-armer KI-Systeme zu fördern. Die freiwillig teilnehmenden KI-Systeme nehmen diese Informationen in die technische Dokumentation nach Artikel 11 auf.

Änderungsantrag  103

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Innerhalb von ... [zwei Jahren nach Beginn der Anwendung dieser Verordnung gemäß Artikel 85 Absatz 2] und danach alle zwei Jahre bewertet die Kommission die Umweltauswirkungen und die Wirksamkeit dieser Verordnung in Bezug auf den Energieverbrauch oder andere Umweltauswirkungen von KI-Systemen. Bis Januar 2050 legt die Kommission einen Vorschlag zur Regulierung der Energieeffizienz vor, um die vollständige Dekarbonisierung von KI-Technologien sicherzustellen.

Änderungsantrag  104

Vorschlag für eine Verordnung

Anhang I – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Konzepte des maschinellen Lernens, mit beaufsichtigtem, unbeaufsichtigtem und bestärkendem Lernen unter Verwendung einer breiten Palette von Methoden, einschließlich des tiefen Lernens (Deep Learning);

a) Konzepte des maschinellen Lernens, mit beaufsichtigtem, unbeaufsichtigtem und bestärkendem Lernen sowie computergestützten wissenschaftlichen Entdeckungen unter Verwendung einer breiten Palette von Methoden, einschließlich des tiefen Lernens (Deep Learning);

Änderungsantrag  105

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 5 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß von Behörden oder im Namen von Behörden verwendet werden sollen, um zu beurteilen, ob natürliche Personen Anspruch auf öffentliche Unterstützungsleistungen und -dienste haben und ob solche Leistungen und Dienste zu gewähren, einzuschränken, zu widerrufen oder zurückzufordern sind;

a) KI-Systeme, die bestimmungsgemäß von Behörden oder im Namen von Behörden verwendet werden sollen, um zu beurteilen, ob natürliche Personen Anspruch auf öffentliche Unterstützungsleistungen und ‑dienste haben, einschließlich Gesundheitsdienstleistungen und Gesundheitskompetenz, und ob solche Leistungen und Dienste zu gewähren, einzuschränken, zu widerrufen oder zurückzufordern sind;

Änderungsantrag  106

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 8 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

8a. Gesundheitswesen, Gesundheitsversorgung, Langzeitpflege und Krankenversicherungen:

 

a) KI-Systeme, die nicht unter die Verordnung (EU) 2017/745 fallen und für den Einsatz im Gesundheitswesen, in der Gesundheitsversorgung und in der Langzeitpflege bestimmt sind und indirekte und direkte Auswirkungen auf die Gesundheit haben oder sensible Gesundheitsdaten nutzen;

 

b) KI-Verwaltungs- und ‑Managementsysteme, die von Angehörigen der Gesundheitsberufe in Krankenhäusern und anderen Einrichtungen des Gesundheitswesens sowie von Krankenversicherungen verwendet werden und bei denen sensible Gesundheitsdaten verarbeitet werden.

Begründung

In dem Vorschlag wird davon ausgegangen, dass alle KI-Anwendungen, die im Gesundheitskontext eingesetzt werden, unter die Verordnung (EU) 2017/745 fallen. Diese Verordnung gilt jedoch nur für Medizinprodukte und Software mit medizinischer Zweckbestimmung, etwa der Behandlung von Patienten. Ausgenommen sind daher gesundheitsbezogene KI-Anwendungen (z. B. Apps zur Überwachung des Arzneimittelgebrauchs) und administrative KI-Systeme, die von Ärzten in Krankenhäusern oder anderen Einrichtungen des Gesundheitswesens eingesetzt werden und die aufgrund ihrer Auswirkungen auf die Gesundheit oder der Verwendung sensibler Gesundheitsdaten und Lebensentscheidungen immer noch neue Herausforderungen und mögliche Risiken für Menschen darstellen.

Änderungsantrag  107

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 1 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) Gebrauchsanweisungen für die Nutzer und gegebenenfalls Aufbau- oder Installationsanweisungen;

g) eindeutige und präzise Gebrauchsanweisungen für die Nutzer und die Endempfänger, auch hinsichtlich möglicher Risiken in Bezug auf die Grundrechte und Diskriminierung, und gegebenenfalls Aufbau- oder Installationsanweisungen;

Änderungsantrag  108

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 2 – Buchstabe g a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ga) Rechenkomplexität des Systems und seiner Softwarekomponenten, seine Datennutzung, einschließlich der Validierung und Erprobung von Systemen.

Änderungsantrag  109

Vorschlag für eine Verordnung

Anhang IV – Absatz 1 – Nummer 3

 

Vorschlag der Kommission

Geänderter Text

3. Detaillierte Informationen über die Überwachung, Funktionsweise und Kontrolle des KI-Systems, insbesondere in Bezug auf: seine Fähigkeiten und Leistungsgrenzen, mit dem Genauigkeitsgrad für bestimmte Personen oder Personengruppen, auf die das System angewandt werden soll, und dem insgesamt erwarteten Genauigkeitsgrad in Bezug auf seine Zweckbestimmung;  vorhersehbare unbeabsichtigte Ergebnisse und Risikoquellen für die Gesundheit und Sicherheit, die Grundrechte und eine etwaige Diskriminierung angesichts der Zweckbestimmung des KI-Systems; die nach Artikel 14 erforderlichen Maßnahmen der menschlichen Aufsicht, einschließlich der technischen Maßnahmen, die getroffen wurden, um den Nutzern die Interpretation der Ergebnisse von KI-Systemen zu erleichtern; gegebenenfalls Spezifikationen für die Eingabedaten;

3. Detaillierte und uneingeschränkt verfügbare Informationen über die Überwachung, Funktionsweise und Kontrolle des KI-Systems, insbesondere in Bezug auf: seine Fähigkeiten und Leistungsgrenzen, mit dem Genauigkeitsgrad für bestimmte Personen oder Personengruppen, auf die das System angewandt werden soll, und dem insgesamt erwarteten Genauigkeitsgrad in Bezug auf seine Zweckbestimmung; vorhersehbare unbeabsichtigte Ergebnisse und Risikoquellen für die Umwelt, die Gesundheit und Sicherheit, die Grundrechte und eine etwaige Diskriminierung angesichts der Zweckbestimmung des KI-Systems; die nach Artikel 14 erforderlichen Maßnahmen der menschlichen Aufsicht, einschließlich der technischen Maßnahmen, die getroffen wurden, um den Nutzern die Interpretation der Ergebnisse von KI-Systemen zu erleichtern; gegebenenfalls Spezifikationen für die Eingabedaten;

 


VERFAHREN DES MITBERATENDEN AUSSCHUSSES

Titel

Harmonisierte Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und Änderung bestimmter Rechtsakte der Union

Bezugsdokumente – Verfahrensnummer

COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)

Federführende Ausschüsse

 Datum der Bekanntgabe im Plenum

IMCO

7.6.2021

LIBE

7.6.2021

 

 

Stellungnahme von

 Datum der Bekanntgabe im Plenum

ENVI

7.6.2021

Verfasser(in) der Stellungnahme

 Datum der Benennung

Susana Solís Pérez

15.9.2021

Artikel 58 – Gemeinsames Ausschuss¬verfahren

 Datum der Bekanntgabe im Plenum

 

 

16.12.2021

Prüfung im Ausschuss

13.1.2022

 

 

 

Datum der Annahme

15.3.2022

 

 

 

Ergebnis der Schlussabstimmung

+:

–:

0:

67

4

15

Zum Zeitpunkt der Schlussabstimmung anwesende Mitglieder

Mathilde Androuët, Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurélia Beigneux, Monika Beňová, Hildegard Bentele, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Cyrus Engerer, Cornelia Ernst, Eleonora Evi, Agnès Evren, Pietro Fiocchi, Raffaele Fitto, Malte Gallée, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Anja Hazekamp, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ştefan Motreanu, Ville Niinistö, Ljudmila Novak, Grace O’Sullivan, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Nicola Procaccini, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Maria Spyraki, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Petar Vitanov, Alexandr Vondra, Mick Wallace, Emma Wiesner, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Zum Zeitpunkt der Schlussabstimmung anwesende Stellvertreter

Maria Arena, Marlene Mortler, Susana Solís Pérez

 


 

NAMENTLICHE SCHLUSSABSTIMMUNG IM MITBERATENDEN AUSSCHUSS

67

+

NI

Edina Tóth

EPP

Bartosz Arłukowicz, Traian Băsescu, Hildegard Bentele, Alexander Bernhuber, Nathalie Colin‑Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Esther de Lange, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Marlene Mortler, Dan‑Ştefan Motreanu, Ljudmila Novak, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Christine Schneider, Maria Spyraki

Renew

Pascal Canfin, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Susana Solís Pérez, Linea Søgaard‑Lidell, Nils Torvalds, Véronique Trillet‑Lenoir, Emma Wiesner, Michal Wiezik

S&D

Nikos Androulakis, Maria Arena, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Cyrus Engerer, Jytte Guteland, Javi López, César Luena, Alessandra Moretti, Sándor Rónai, Günther Sidl, Tiemo Wölken

The Left

Malin Björk, Anja Hazekamp, Petros Kokkalis, Silvia Modig, Mick Wallace

Verts/ALE

Margrete Auken, Bas Eickhout, Eleonora Evi, Malte Gallée, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Grace O'Sullivan, Jutta Paulus

 

4

-

ID

Simona Baldassarre, Marco Dreosto, Sylvia Limmer, Silvia Sardone

 

15

0

ECR

Sergio Berlato, Pietro Fiocchi, Raffaele Fitto, Joanna Kopcińska, Nicola Procaccini, Rob Rooken, Alexandr Vondra, Anna Zalewska

ID

Mathilde Androuët, Aurélia Beigneux, Catherine Griset, Teuvo Hakkarainen, Joëlle Mélin

NI

Athanasios Konstantinou, Ivan Vilibor Sinčić

 

Erklärung der benutzten Zeichen:

+ : dafür

- : dagegen

0 : Enthaltung

 

 


 

STELLUNGNAHME DES AUSSCHUSSES FÜR VERKEHR UND TOURISMUS (12.7.2022)

für den Ausschuss für Binnenmarkt und Verbraucherschutz und den Ausschuss für bürgerliche Freiheiten, Justiz und Inneres

zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union

(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))

Verfasserin der Stellungnahme: Josianne Cutajar

 

 

KURZE BEGRÜNDUNG

Die Verfasserin unterstützt die Ausarbeitung eines EU-Rechtsrahmens für künstliche Intelligenz, da es sich um einen notwendigen Schritt handelt, um sicherzustellen, dass die Union auf diesem Gebiet eine Führungsrolle übernimmt und dabei unsere europäischen Werte gewahrt werden. Mit dem horizontalen risikobasierten Ansatz des Gesetzes über künstliche Intelligenz wird ein System geschaffen, in dem die Vorschriften ausschließlich für Anwendungen von KI-Systemen gelten werden, bei denen Gefahren auftreten können. Dieser selektive Ansatz wird es der Union ermöglichen, ihren KI-Sektor weiter auszubauen, ohne den technologischen Fortschritt und den digitalen Wandel zu behindern.

Der Verkehrssektor ist ein Sektor, der in hohem Maße von der Integration von KI-Systemen in sein Tagesgeschäft und in seine Logistik profitieren wird. Der Einsatz von KI-Systemen kann dazu beitragen, die Sicherheits-, Umwelt- und in einigen Fällen auch die gesellschaftlichen Ziele der EU für diesen Sektor zu erreichen. Die Union muss daher darauf abzielen, die bestehenden Hindernisse zu beseitigen, die Entwicklung und Investitionen entgegenstehen, vor allem die rechtliche Fragmentierung und Unsicherheit, die Unternehmen und Kunden schaden.

Die Stellungnahme konzentriert sich auf die folgenden wichtigen Punkte:

 Es soll sichergestellt werden, dass sich das Gesetz über künstliche Intelligenz nicht mit sektorspezifischen Rechtsvorschriften überschneidet und den Akteuren des Verkehrssektors keine doppelten oder miteinander kollidierenden Verpflichtungen auferlegt;

 die Entwicklung und Einhaltung internationaler Normen, die für den Verkehrssektor von besonderer Bedeutung sind, soll gefördert werden;

 Forschung und Innovation sollen gefördert werden, um sicherzustellen, dass der EU-Verkehrssektor sein eigenes Know-how bei der Anwendung von KI entwickelt und dabei die höchsten ethischen Standards einhält.

Generell soll mit der Stellungnahme dafür gesorgt werden, dass die Belange des Verkehrssektors im Gesetz über künstliche Intelligenz berücksichtigt werden. Aus diesem Grund mussten die Änderungsanträge im Zuständigkeitsbereich des TRAN-Ausschusses sorgfältig ausgearbeitet werden, was bei der Behandlung harmonisierter Rechtsvorschriften eine komplizierte Aufgabe darstellt. Dennoch ist die Verfasserin der Ansicht, dass der TRAN-Ausschuss in den Fällen, in denen horizontale Bestimmungen eindeutig den Verkehrssektor betreffen, ein Mitspracherecht haben sollte. Darüber hinaus wurden einige Änderungsanträge aufgenommen, um die Kernaussagen des Kommissionsberichts zu präzisieren, z. B. bei der Begriffsbestimmung von KI-Systemen und Hochrisiko-KI-Systemen, die beide von wesentlicher Bedeutung für das Verkehrswesen sind.

Im Zuge der Konsultations- und Forschungsphase für diese Arbeit schälten sich aus Sicht des TRAN-Ausschusses drei klare Probleme heraus. Erstens gibt es in jedem Verkehrssegment bereits in unterschiedlichem Maße und in unterschiedlicher Form sektorspezifische Rechtsvorschriften, Bestimmungen oder Initiativen, mit denen für ein Höchstmaß an Sicherheit bei der Integration von KI-Systemen gesorgt werden soll. In den Bereichen Luftfahrt, Straßen-, Schienen- und Seeverkehr sind Maßnahmen erforderlich, die speziell auf den jeweiligen Sektor zugeschnitten sind, um ein erfolgreiches Betriebs- und Dienstleistungsmanagement zu gewährleisten und gleichzeitig ein Höchstmaß an Sicherheit sicherzustellen. Die harmonisierten Rechtsvorschriften reichen möglicherweise nicht aus, um diese Sicherheit im jeweiligen Sektor zu gewährleisten. Aus diesem Grund war es von entscheidender Bedeutung, im Gesetz über künstliche Intelligenz darauf hinzuweisen, dass die sektorspezifischen Rechtsvorschriften eingehalten werden müssen und in einigen Fällen Vorrang vor harmonisierten Vorschriften haben. Dies war, wie aus Anhang II Teil B hervorgeht, in der Tat die Absicht der Kommission. Der Text musste jedoch detaillierter formuliert werden.

Zweitens hat die Analyse ergeben, dass aufgrund des internationalen Charakters des Verkehrswesens ein weiteres Schlüsselelement darin besteht, dass es bereits internationale Verfahren zur Entwicklung weltweiter Normen und Leitlinien für die Sicherheit von KI-Systemen in den einzelnen Sektoren gibt. Es wäre daher wünschenswert, dass solche globalen Normen geachtet und in das EU-Recht und die EU-Normen aufgenommen werden. Im Allgemeinen werden EU-Normen im Rahmen förmlicher Vereinbarungen zwischen den europäischen und internationalen Normungsorganisationen entwickelt, was diesen faktisch eine Zusammenarbeit ermöglicht. Im Interesse der Erhaltung der Wettbewerbsfähigkeit des EU-Verkehrssektors gegenüber anderen Regionen mussten die Formulierungen und Bestimmungen im Gesetz über künstliche Intelligenz jedoch gestärkt werden, um sicherzustellen, dass die Bestimmungen zur KI im Verkehrswesen den internationalen Normen und Standards entsprechen.

Schließlich sind Forschung und Entwicklung die Triebkraft für die Digitalisierung einer jeden Branche, vor allem aber auch des Verkehrssektors. Neue harmonisierte Vorschriften über KI dürfen die Forschung nicht behindern, wenn diese Forschung auf kontrollierte Umgebungen beschränkt ist und das untersuchte KI-System nicht in Verkehr gebracht wird. Aus diesem Grund wird eine Formulierung hinzugefügt, um den Anwendungsbereich in dieser Hinsicht zu verdeutlichen. Es ist anzumerken, dass der Kommissionsvorschlag im Wege gesonderter Artikel über Reallabore und Kleinanbieter Maßnahmen zur Innovationsförderung vorsieht. Die Verfasserin fügt hier jedoch Änderungen ein, um sicherzustellen, dass kleine und mittlere Unternehmen (KMU) von diesen Bestimmungen profitieren können.

Weitere geringfügige Änderungsvorschläge der Verfasserin betreffen die Transparenz von Algorithmen für die Tätigkeit im Verkehrssektor (sie spiegeln lediglich die Formulierungen der Kommission in Anhang III wider), den Begriff der menschlichen Aufsicht im Zusammenhang mit dem Verkehrswesen und die Klärung von Fehlern in Datensätzen.


 

ÄNDERUNGSANTRÄGE

Der Ausschuss für Verkehr und Tourismus ersucht den Ausschuss für Binnenmarkt und Verbraucherschutz und den Ausschuss für bürgerliche Freiheiten, Justiz und Inneres als federführende Ausschüsse, folgende Änderungsanträge zu berücksichtigen:

Änderungsantrag  1

 

Vorschlag für eine Verordnung

Erwägung 1

 

Vorschlag der Kommission

Geänderter Text

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union festgelegt wird. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit und der Grundrechte, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

(1) Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union festgelegt wird. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit, der Grundrechte und der Umwelt, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.

Änderungsantrag  2

 

Vorschlag für eine Verordnung

Erwägung 5

 

Vorschlag der Kommission

Geänderter Text

(5) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie Gesundheit und Sicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Durch die Festlegung dieser Vorschriften unterstützt die Verordnung das vom Europäischen Rat33 formulierte Ziel der Union, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament34 ausdrücklich geforderten Schutz von Ethikgrundsätzen.

(5) Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie Gesundheit und Sicherheit, den Schutz der Umwelt und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Durch die Festlegung dieser Vorschriften unterstützt die Verordnung das vom Europäischen Rat formulierte Ziel der Union, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen33, und sorgt für den vom Europäischen Parlament ausdrücklich geforderten Schutz von Ethikgrundsätzen34.

__________________

__________________

33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.

33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.

34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).

34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012(INL).

Änderungsantrag  3

 

Vorschlag für eine Verordnung

Erwägung 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Die Rechtsvorschriften der Union über künstliche Intelligenz sollten zum doppelten – grünen und digitalen – Wandel beitragen. Künstliche Intelligenz kann zwar einen sinnvollen Beitrag zum grünen Wandel leisten, hat aber auch erhebliche Umweltauswirkungen aufgrund der kritischen Rohstoffe, die für die Konzeption und den Aufbau ihrer Infrastruktur und Mikroprozessoren benötigt werden, und aufgrund der Energie, die für die Entwicklung, das Training, die Abstimmung und die Nutzung erforderlich ist. Die Entwicklung und Nutzung von KI sollte deshalb in allen Phasen des Lebenszyklus von KI-Systemen mit nachhaltigen ökologischen Ressourcen vereinbar sein. Außerdem sollten eine unnötige Erfassung und Verarbeitung von Daten vermieden werden. Darüber hinaus sollten die Rechtsvorschriften der Union über künstliche Intelligenz mit Maßnahmen einhergehen, die darauf abzielen, die größten Hindernisse für den digitalen Wandel der Wirtschaft abzubauen. Diese Maßnahmen sollten sich auf die Bildung, die Weiterbildung und die Umschulung von Arbeitnehmern konzentrieren, Investitionen in Forschung und Innovation fördern und die Sicherheit im digitalen Bereich im Einklang mit den Initiativen zur Erreichung der Ziele der digitalen Dekade steigern. Der digitale Wandel sollte in allen Regionen harmonisiert vonstattengehen, wobei den digital weniger entwickelten Gebieten der Union besondere Aufmerksamkeit geschenkt werden sollte.

Änderungsantrag  4

 

Vorschlag für eine Verordnung

Erwägung 5 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5b) Harmonisierte Unionsvorschriften über künstliche Intelligenz können in der gesamten Union zu Rechtssicherheit und Kohärenz beitragen. Aufgrund der mit der Personen- und Warenbeförderung verbundenen Risiken wird der Sektor jedoch sorgfältig überwacht und reguliert, um Zwischenfälle und den Verlust von Menschenleben zu verhindern. Der Rechtsrahmen der Union für das Verkehrswesen umfasst sektorspezifische Rechtsvorschriften für die Luftfahrt und den Straßen-, Schienen- und Seeverkehr. Mit der fortschreitenden Integration von KI-Systemen in den Sektor dürften sich neue Herausforderungen für das Risikomanagement ergeben. Diese Verordnung sollte nur für Hochrisikoanwendungen im Verkehrssektor gelten, wenn sie nicht bereits durch sektorspezifische Rechtsvorschriften abgedeckt sind und sich nachteilig auf die Umwelt, die Gesundheit, die Sicherheit und die Grundrechte von Personen auswirken könnten. Eine doppelte Regulierung sollte daher vermieden werden.

Änderungsantrag  5

 

Vorschlag für eine Verordnung

Erwägung 5 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5c) Im Luftfahrtsektor der Union etwa werden im Rahmen der Tätigkeit der Agentur der Europäischen Union für Flugsicherheit (EASA) und ihrer Interessenträger schrittweise eigene Leitlinien und Regeln für die Anwendung und das Sicherheitsmanagement von KI-Systemen in der Luftfahrt ausgearbeitet. Im Fahrplan der EASA für KI werden in der Luftfahrt angewendete KI-Systeme in drei verschiedene Kategorien eingestuft, nämlich die maschinelle Unterstützung des Menschen, die Zusammenarbeit zwischen Mensch und Maschine und die vollständige Automatisierung. Es bedarf einer sektorspezifischen Kontrolle von KI-Systemen, bei der Vorschriften festgelegt werden, die für ein Höchstmaß an Sicherheit im Luftverkehr sorgen und gleichzeitig die globale Wettbewerbsfähigkeit der Unternehmen in der Union wahren.

Änderungsantrag  6

 

Vorschlag für eine Verordnung

Erwägung 6

 

Vorschlag der Kommission

Geänderter Text

(6) Der Begriff „KI-System“ sollte klar definiert werden, um Rechtssicherheit zu gewährleisten und gleichzeitig genügend Flexibilität zu bieten, um künftigen technologischen Entwicklungen Rechnung zu tragen. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen der Software beruhen, insbesondere darauf, dass sie im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren, sei es physisch oder digital. KI-Systeme können so konzipiert sein, dass sie mit verschiedenen Graden der Autonomie arbeiten und eigenständig oder als Bestandteil eines Produkts verwendet werden können, unabhängig davon, ob das System physisch in das Produkt integriert ist (eingebettet) oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet). Die Bestimmung des Begriffs „KI-System“ sollte durch eine Liste spezifischer Techniken und Konzepte für seine Entwicklung ergänzt werden, die im Lichte der Marktentwicklungen und der technischen Entwicklungen auf dem neuesten Stand gehalten werden sollte, indem die Kommission delegierte Rechtsakte zur Änderung dieser Liste erlässt.

(6) Der Begriff „KI-System“ sollte klar definiert werden, um Rechtssicherheit zu gewährleisten und gleichzeitig genügend Flexibilität zu bieten, um künftigen technologischen Entwicklungen Rechnung zu tragen. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen der Software und gegebenenfalls auch der Hardware beruhen.1a Insbesondere für die Zwecke dieser Verordnung sollten KI-Systeme als Systeme verstanden werden, die in der Lage sind, auf der Grundlage maschineller und/oder vom Menschen erzeugter Daten und Eingaben durch Lernen, Schlussfolgern oder Modellieren abzuleiten, wie eine Reihe von Zielen, die vom Menschen festgelegt wurden, erreicht wird, und konkrete Ergebnisse in Form von Inhalten für generative KI-Systeme sowie Vorhersagen, Empfehlungen oder Entscheidungen hervorzubringen, die das Umfeld beeinflussen, mit dem sie interagieren, sei es physisch oder digital. KI-Systeme können so konzipiert sein, dass sie mit verschiedenen Graden der Autonomie arbeiten und eigenständig oder als Bestandteil eines Produkts verwendet werden können, unabhängig davon, ob das System physisch in das Produkt integriert ist (eingebettet) oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet). Die Bestimmung des Begriffs „KI-System“ sollte durch eine Liste spezifischer Techniken und Konzepte für seine Entwicklung ergänzt werden, die im Lichte der Marktentwicklungen und der technischen Entwicklungen auf dem neuesten Stand gehalten werden sollte, indem die Kommission delegierte Rechtsakte zur Änderung dieser Liste erlässt.

 

__________________

 

1a https://digital-strategy.ec.europa.eu/en/library/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines

Änderungsantrag  7

 

Vorschlag für eine Verordnung

Erwägung 8 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(8a) Die Verwendung biometrischer Daten und moderner Technologien im Verkehrs- und Tourismussektor kann die Benutzerfreundlichkeit und die Sicherheit generell erheblich verbessern. Diese Verordnung sollte solche Entwicklungen begleiten, indem mit ihr im Einklang mit dem Datenschutzrahmen der Union insbesondere in den Fällen, in denen biometrische Daten zum Einsatz kommen, ein Höchstmaß an Schutz festgelegt wird, wobei gleichzeitig Forschung und Investitionen für die Entwicklung und den Einsatz von KI-Systemen gefördert werden sollten, die der Gesellschaft zugutekommen können.

Änderungsantrag  8

 

Vorschlag für eine Verordnung

Erwägung 12 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(12a) Mit dieser Verordnung sollten Forschung und Innovation für den Einsatz von KI-Systemen in der Verkehrs- und Tourismusbranche unterstützt werden, während zugleich für ein hohes Schutzniveau in Bezug auf öffentliche Interessen wie Gesundheit, Sicherheit, Grundrechte, Umwelt und Demokratie gesorgt werden sollte. Aus diesem Grund sollten Anwendungen von KI-Systemen, die ausschließlich zur Bewertung ihrer Nutzung und Funktionalität in einer kontrollierten Testumgebung entwickelt, angewandt und bewertet werden, aus dem Anwendungsbereich dieser Verordnung ausgeschlossen werden. Für produktorientierte Forschungsaktivitäten von Anbietern sollten die Bestimmungen dieser Verordnung insoweit gelten, als diese Forschung dazu führt oder mit sich bringt, dass ein KI-System in Verkehr gebracht oder in Betrieb genommen wird. Alle Formen der Forschung und Entwicklung sollten unter Beachtung der höchsten ethischen Standards für wissenschaftliche Forschung durchgeführt werden.

Änderungsantrag  9

 

Vorschlag für eine Verordnung

Erwägung 13

 

Vorschlag der Kommission

Geänderter Text

(13) Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit sowie die Grundrechte zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.

(13) Um ein einheitliches und hohes Maß an Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit, die Grundrechte und die Umwelt sicherzustellen, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden: „Charta“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein. Dies ist im Verkehrssektor besonders wichtig, damit für ein Höchstmaß an Interoperabilität zwischen Fahrzeugen, Infrastruktur und intelligenten Systemen gesorgt und die Sicherheit gewährleistet ist. Die Union und ihre Normungsorganisationen sollten sich aktiv an der Entwicklung weltweit gültiger Normen für die verschiedenen Verkehrsträger beteiligen, damit die Normen nach Möglichkeit an etwaige geltende EU-Normen angeglichen werden und sichergestellt ist, dass sie im Einklang mit dem Unionsrecht stehen. Bei der regelmäßigen Überprüfung dieser Verordnung sollten die aktualisierten Normen für den Verkehrssektor berücksichtigt werden.

Änderungsantrag  10

 

Vorschlag für eine Verordnung

Erwägung 17 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(17a) Der Einsatz von KI am Arbeitsplatz kann sowohl für das Management als auch für die Abläufe eines Unternehmens von Vorteil sein, indem die Arbeitnehmer bei ihren Aufgaben unterstützt werden und die Sicherheit am Arbeitsplatz verbessert wird. KI-Systeme, die in der Personalverwaltung – insbesondere durch digitale Arbeitsplattformen – unter anderem im Verkehrswesen verwendet werden, können jedoch eine Reihe von Risiken bergen, etwa eine ungerechte bzw. unnötige Bewertung des Sozialverhaltens auf der Grundlage verzerrter Datensätze oder in die Privatsphäre eingreifender Überwachungspraktiken, durch die es zur Verletzung von Arbeitnehmer- und Grundrechten kommen kann. Diese Verordnung sollte daher darauf ausgerichtet sein, die Rechte von Arbeitnehmern im Verkehrswesen, die mithilfe von AI-Systemen verwaltet werden, einschließlich der Arbeitnehmer, die über digitale Arbeitsplattformen tätig sind, zu schützen und bei der algorithmischen Verwaltung Transparenz, Fairness und Rechenschaftspflicht zu fördern, um sicherzustellen, dass sich die Arbeitnehmer bewusst sind, wie die Algorithmen funktionieren, welche personenbezogenen Daten ausgegeben werden und wie sich ihr Verhalten auf die von dem automatisierten System getroffenen Entscheidungen auswirkt.

Änderungsantrag  11

 

Vorschlag für eine Verordnung

Erwägung 17 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(17b) Ferner sollten Nutzer und Einzelpersonen berechtigt sein, Widerspruch gegen eine Entscheidung einzulegen, die ausschließlich von einem KI-System getroffen wurde oder sich in erheblichem Maße auf das Ergebnis eines KI-Systems stützt und die für diese Personen rechtliche Wirkung entfaltet oder sie in ähnlicher Weise in hohem Maße betrifft.

Änderungsantrag  12

 

Vorschlag für eine Verordnung

Erwägung 27

 

Vorschlag der Kommission

Geänderter Text

(27) Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht oder in Betrieb genommen werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben.

(27) Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht oder in Betrieb genommen werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union oder die Umwelt haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben.

Änderungsantrag  13

 

Vorschlag für eine Verordnung

Erwägung 29

 

Vorschlag der Kommission

Geänderter Text

(29) In Bezug auf Hochrisiko-KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder Systemen oder selbst um Produkte oder Systeme handelt, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates39, der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates40, der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates41, der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates42, der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates43, der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates44, der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates45 und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates46 fallen, ist es angezeigt, diese Rechtsakte zu ändern, damit die Kommission – aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Beeinträchtigung bestehender Governance-, Konformitätsbewertungs- und Durchsetzungsmechanismen sowie der darin eingerichteten Behörden – beim Erlass von etwaigen künftigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt.

(29) In Bezug auf Hochrisiko-KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder Systemen oder selbst um Produkte oder Systeme handelt, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates39, der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates40, der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates41, der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates42, der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates43, der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates44, der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates45 und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates46 fallen, ist es erforderlichenfalls angezeigt, diese Rechtsakte zu ändern, damit die Kommission – aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Überschneidungen mit bestehenden Governance-, Konformitätsbewertungs- und Durchsetzungsmechanismen sowie den darin eingerichteten Behörden – beim Erlass von etwaigen künftigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt. Die Rechtsvorschriften des Verkehrssektors sollten Vorrang vor dieser Verordnung haben, und es sollte sichergestellt werden, dass es keine Widersprüche zwischen dieser Verordnung und anderen aktuellen und künftigen Rechtsakten (z. B. Datengesetz, Überprüfung der EU-Vorschriften über intelligente Verkehrssysteme) gibt, um Überschneidungen bei den Verpflichtungen von Anbietern und Herstellern zu vermeiden, die zu Rechtsunsicherheit für die Unternehmen führen und die Einführung neuer Technologien im Markt bremsen würden. In der vorliegenden Verordnung sollte auch ein wirksamer Überprüfungsmechanismus vorgesehen werden, damit künftigen technologischen Entwicklungen Rechnung getragen und für eine gerechte, verhältnismäßige und zielgerichtete Umsetzung gesorgt wird. Um erhebliche Rechtsunsicherheit zu vermeiden und sicherzustellen, dass die vorliegende Verordnung ohne unangemessene Verzögerungen für alle Branchen, auf die sich ihr Geltungsbereich erstreckt, gilt, sollten diese Rechtsakte dahingehend geändert werden, dass die Bestimmungen der vorliegenden Verordnung spätestens 24 Monate nach ihrem Inkrafttreten aufgenommen werden.

__________________

__________________

39 Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates vom 11. März 2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt und zur Aufhebung der Verordnung (EG) Nr. 2320/2002 (ABl. L 97 vom 9.4.2008, S. 72).

39 Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates vom 11. März 2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt und zur Aufhebung der Verordnung (EG) Nr. 2320/2002 (ABl. L 97 vom 9.4.2008, S. 72).

40 Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 1).

40 Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 1).

41 Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates vom 15. Januar 2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 52).

41 Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates vom 15. Januar 2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 52).

42 Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates vom 23. Juli 2014 über Schiffsausrüstung und zur Aufhebung der Richtlinie 96/98/EG des Rates (ABl. L 257 vom 28.8.2014, S. 146).

42 Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates vom 23. Juli 2014 über Schiffsausrüstung und zur Aufhebung der Richtlinie 96/98/EG des Rates (ABl. L 257 vom 28.8.2014, S. 146).

43 Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates vom 11. Mai 2016 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union (ABl. L 138 vom 26.5.2016, S. 44).

43 Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates vom 11. Mai 2016 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union (ABl. L 138 vom 26.5.2016, S. 44).

44 Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).

44 Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).

45 Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates vom 4. Juli 2018 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit sowie zur Änderung der Verordnungen (EG) Nr. 2111/2005, (EG) Nr. 1008/2008, (EU) Nr. 996/2010, (EU) Nr. 376/2014 und der Richtlinien 2014/30/EU und 2014/53/EU des Europäischen Parlaments und des Rates, und zur Aufhebung der Verordnungen (EG) Nr. 552/2004 und (EG) Nr. 216/2008 des Europäischen Parlaments und des Rates und der Verordnung (EWG) Nr. 3922/91 des Rates (ABl. L 212 vom 22.8.2018, S. 1).

45 Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates vom 4. Juli 2018 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit sowie zur Änderung der Verordnungen (EG) Nr. 2111/2005, (EG) Nr. 1008/2008, (EU) Nr. 996/2010, (EU) Nr. 376/2014 und der Richtlinien 2014/30/EU und 2014/53/EU des Europäischen Parlaments und des Rates, und zur Aufhebung der Verordnungen (EG) Nr. 552/2004 und (EG) Nr. 216/2008 des Europäischen Parlaments und des Rates und der Verordnung (EWG) Nr. 3922/91 des Rates (ABl. L 212 vom 22.8.2018, S. 1).

46 Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates vom 27. November 2019 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge im Hinblick auf ihre allgemeine Sicherheit und den Schutz der Fahrzeuginsassen und von ungeschützten Verkehrsteilnehmern, zur Änderung der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates und zur Aufhebung der Verordnungen (EG) Nr. 78/2009, (EG) Nr. 79/2009 und (EG) Nr. 661/2009 des Europäischen Parlaments und des Rates sowie der Verordnungen (EG) Nr. 631/2009, (EU) Nr. 406/2010, (EU) Nr. 672/2010, (EU) Nr. 1003/2010, (EU) Nr. 1005/2010, (EU) Nr. 1008/2010, (EU) Nr. 1009/2010, (EU) Nr. 19/2011, (EU) Nr. 109/2011, (EU) Nr. 458/2011, (EU) Nr. 65/2012, (EU) Nr. 130/2012, (EU) Nr. 347/2012, (EU) Nr. 351/2012, (EU) Nr. 1230/2012 und (EU) 2015/166 der Kommission (ABl. L 325 vom 16.12.2019, S. 1).

46 Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates vom 27. November 2019 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge im Hinblick auf ihre allgemeine Sicherheit und den Schutz der Fahrzeuginsassen und von ungeschützten Verkehrsteilnehmern, zur Änderung der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates und zur Aufhebung der Verordnungen (EG) Nr. 78/2009, (EG) Nr. 79/2009 und (EG) Nr. 661/2009 des Europäischen Parlaments und des Rates sowie der Verordnungen (EG) Nr. 631/2009, (EU) Nr. 406/2010, (EU) Nr. 672/2010, (EU) Nr. 1003/2010, (EU) Nr. 1005/2010, (EU) Nr. 1008/2010, (EU) Nr. 1009/2010, (EU) Nr. 19/2011, (EU) Nr. 109/2011, (EU) Nr. 458/2011, (EU) Nr. 65/2012, (EU) Nr. 130/2012, (EU) Nr. 347/2012, (EU) Nr. 351/2012, (EU) Nr. 1230/2012 und (EU) 2015/166 der Kommission (ABl. L 325 vom 16.12.2019, S. 1).

Änderungsantrag  14

 

Vorschlag für eine Verordnung

Erwägung 32

 

Vorschlag der Kommission

Geänderter Text

(32) Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitskomponenten von Produkten handelt oder die selbst Produkte sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein hohes Risiko bergen, die Gesundheit und Sicherheit oder die Grundrechte von Personen zu schädigen, wobei sowohl die Schwere des möglichen Schadens als auch die Wahrscheinlichkeit seines Auftretens zu berücksichtigen sind, und sofern sie in einer Reihe von Bereichen verwendet werden, die in der Verordnung ausdrücklich festgelegt sind. Die Bestimmung dieser Systeme erfolgt nach derselben Methode und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind.

(32) Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitskomponenten von Produkten handelt oder die selbst Produkte sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein hohes Risiko bergen, die Gesundheit und Sicherheit, die Grundrechte von Personen oder die Umwelt zu schädigen, wobei sowohl die Schwere des möglichen Schadens als auch die Wahrscheinlichkeit seines Auftretens zu berücksichtigen sind, und sofern sie in einer Reihe von Bereichen verwendet werden, die in der Verordnung ausdrücklich festgelegt sind. Die Bestimmung dieser Systeme erfolgt nach derselben Methode und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind.

Änderungsantrag  15

 

Vorschlag für eine Verordnung

Erwägung 34

 

Vorschlag der Kommission

Geänderter Text

(34) Was die Verwaltung und den Betrieb kritischer Infrastrukturen anbelangt, so sollten KI-Systeme, die als Sicherheitskomponenten für das Management und den Betrieb des Straßenverkehrs sowie für die Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen, als hochriskant eingestuft werden, da ihr Ausfall oder ihre Störung in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann.

(34) Was die Verwaltung und den Betrieb kritischer Infrastrukturen anbelangt, so sollten KI-Systeme, die als Sicherheitskomponenten für das Management und den Betrieb des Straßenverkehrs sowie für die Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen, als hochriskant eingestuft werden, da ihr Ausfall oder ihre Störung in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann. Beispiele für Managementsysteme für kritische Straßeninfrastrukturen gemäß Anhang III sollten unter anderem Verkehrsleitsysteme, intelligente Verkehrssysteme und mit dem Verkehr verbundene IKT-Infrastrukturen umfassen, aber nicht auf sie beschränkt sein.

Änderungsantrag  16

 

Vorschlag für eine Verordnung

Erwägung 37

 

Vorschlag der Kommission

Geänderter Text

(37) Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten und Leistungen, die erforderlich sind, damit die Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie Wohnraum, Elektrizität und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die zu diesem Zweck eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, beispielsweise aufgrund der rassischen oder ethnischen Herkunft, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Angesichts des sehr begrenzten Auswirkungen und der auf dem Markt verfügbaren Alternativen ist es angezeigt, KI-Systeme zur Kreditwürdigkeitsprüfung und Kreditpunktebewertung auszunehmen, wenn sie von kleinen Anbietern für den Eigenbedarf in Betrieb genommen werden. Natürliche Personen, die staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, können sie erhebliche Auswirkungen auf die Existenzgrundlage der Menschen haben und ihre Grundrechte wie das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen. Solche Systeme sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Anwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Schließlich sollten KI-Systeme, die bei der Entsendung oder der Priorisierung der Entsendung von Rettungsdiensten eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für ihr Eigentum sehr kritischen Situationen Entscheidungen treffen.

(37) Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten und Leistungen, die erforderlich sind, damit die Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie Wohnraum, Elektrizität und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die zu diesem Zweck eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, beispielsweise aufgrund der rassischen oder ethnischen Herkunft, des Geschlechts, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Angesichts der sehr begrenzten Auswirkungen und der auf dem Markt verfügbaren Alternativen ist es angezeigt, KI-Systeme zur Kreditwürdigkeitsprüfung und Kreditpunktebewertung auszunehmen, wenn sie von kleinen Anbietern für den Eigenbedarf in Betrieb genommen werden. Natürliche Personen, die staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, können sie erhebliche Auswirkungen auf die Existenzgrundlage der Menschen haben und ihre Grundrechte wie das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen. Solche Systeme sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Anwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Schließlich sollten KI-Systeme, die bei der Entsendung oder der Priorisierung der Entsendung von Rettungsdiensten eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für deren Eigentum sehr kritischen Situationen Entscheidungen treffen.

Änderungsantrag  17

 

Vorschlag für eine Verordnung

Erwägung 43

 

Vorschlag der Kommission

Geänderter Text

(43) Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf die Qualität der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Nutzer, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Cybersicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für die Gesundheit, die Sicherheit und die Grundrechte entsprechend der Zweckbestimmung des Systems wirksam zu mindern, und es stehen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung, sodass ungerechtfertigte Handelsbeschränkungen vermieden werden.

(43) Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf die Qualität der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Nutzer, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Cybersicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für die Gesundheit, die Sicherheit, die Grundrechte und die Umwelt entsprechend der Zweckbestimmung des Systems wirksam zu mindern, und es stehen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung, sodass ungerechtfertigte Handelsbeschränkungen vermieden werden.

Änderungsantrag  18

 

Vorschlag für eine Verordnung

Erwägung 44

 

Vorschlag der Kommission

Geänderter Text

(44) Eine hohe Datenqualität ist für die Leistung vieler KI-Systeme von wesentlicher Bedeutung, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten-Governance- und Datenverwaltungsverfahren umgesetzt werden. Die Trainings-, Validierungs- und Testdatensätze sollten im Hinblick auf die Zweckbestimmung des Systems hinreichend relevant, repräsentativ, fehlerfrei und vollständig sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu beobachten, zu erkennen und zu korrigieren.

(44) Eine hohe Datenqualität ist für die Leistung vieler KI-Systeme von wesentlicher Bedeutung, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten‑Governance- und Datenverwaltungsverfahren umgesetzt werden. Die Trainings-, Validierungs- und Testdatensätze sollten im Hinblick auf die Zweckbestimmung des Systems und im Interesse eines Höchstmaßes an Sicherheit hinreichend relevant, repräsentativ, aktuell, weitestgehend fehlerfrei und so vollständig wie möglich sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen oder Zusammenhänge, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter sicherstellen, dass Datenbanken angemessene Daten über Gruppen enthalten, die für die diskriminierenden Auswirkungen von KI anfälliger sind, etwa Menschen mit Behinderungen, und angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu beobachten, zu erkennen, anzupassen und zu korrigieren.

Änderungsantrag  19

 

Vorschlag für eine Verordnung

Erwägung 47

 

Vorschlag der Kommission

Geänderter Text

(47) Um der Undurchsichtigkeit entgegenzuwirken, die bestimmte KI-Systeme für natürliche Personen unverständlich oder zu komplex erscheinen lässt, sollte für Hochrisiko-KI-Systeme ein gewisses Maß an Transparenz vorgeschrieben werden. Die Nutzer sollten in der Lage sein, die Ergebnisse des Systems zu interpretieren und es angemessen zu verwenden. Hochrisiko-KI-Systemen sollte daher die einschlägige Dokumentation und Gebrauchsanweisungen beigefügt sein und diese sollten präzise und eindeutige Informationen enthalten, gegebenenfalls auch in Bezug auf mögliche Risiken in Bezug auf die Grundrechte und Diskriminierung.

(47) Um der Undurchsichtigkeit entgegenzuwirken, die bestimmte KI-Systeme für natürliche Personen unverständlich oder zu komplex erscheinen lässt, sollte für Hochrisiko-KI-Systeme ein gewisses Maß an Transparenz vorgeschrieben werden, und zwar insbesondere bei der Anwendung auf digitalen Arbeitsplattformen, die die Tätigkeiten von Beschäftigten im Verkehrssektor verwalten. Die Nutzer sollten in der Lage sein, die Ergebnisse des Systems zu interpretieren und es angemessen zu verwenden. Transparenz, Fairness, Rechenschaftspflicht und Erklärbarkeit von KI-Systemen können außerdem positive Faktoren für die Verbraucherakzeptanz auf dem Markt sein. Hochrisiko-KI-Systemen sollten daher die einschlägige Dokumentation und Gebrauchsanweisungen beigefügt sein, und diese sollten präzise und eindeutige Informationen enthalten, gegebenenfalls auch über mögliche Risiken in Bezug auf die Grundrechte und Diskriminierung.

Änderungsantrag  20

 

Vorschlag für eine Verordnung

Erwägung 47 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(47a) Ausgehend von den bisherigen Erfahrungen ist es besonders wichtig, für klare Anforderungen und Leitlinien für die Interoperabilität zwischen KI-Systemen sowohl innerhalb als auch zwischen verschiedenen Wirtschaftszweigen zu sorgen, um zur Förderung von Innovation beizutragen und günstige Bedingungen für kleine und mittlere Unternehmen (KMU) zu schaffen.

Änderungsantrag  21

 

Vorschlag für eine Verordnung

Erwägung 48

 

Vorschlag der Kommission

Geänderter Text

(48) Hochrisiko-KI-Systeme sollten so konzipiert und entwickelt werden, dass natürliche Personen ihre Funktionsweise überwachen können. Zu diesem Zweck sollte der Anbieter des Systems vor dem Inverkehrbringen oder der Inbetriebnahme geeignete Maßnahmen zur Gewährleistung der menschlichen Aufsicht festlegen. Insbesondere sollten solche Maßnahmen gegebenenfalls gewährleisten, dass das System integrierten Betriebseinschränkungen unterliegt, über die sich das System selbst nicht hinwegsetzen kann, dass es auf den menschlichen Bediener reagiert und dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen, um diese Aufgabe wahrzunehmen.

(48) Hochrisiko-KI-Systeme sollten so konzipiert und entwickelt werden, dass natürliche Personen ihre Funktionsweise überwachen können, es sei denn, es liegen eindeutige Belege dafür vor, dass dies keinen Mehrwert erbringt und sogar dem Schutz der Gesundheit, der Sicherheit und der Grundrechte abträglich sein könnte. Zu diesem Zweck sollte der Anbieter des Systems vor dem Inverkehrbringen oder der Inbetriebnahme geeignete Maßnahmen zur Gewährleistung der menschlichen Aufsicht festlegen. Insbesondere sollten solche Maßnahmen gegebenenfalls gewährleisten, dass das System integrierten Betriebseinschränkungen unterliegt, über die sich das System selbst nicht hinwegsetzen kann, dass es auf den menschlichen Bediener reagiert und dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen, um diese Aufgabe wahrzunehmen. Mit Blick auf den Verkehrssektor sollten KI-Systemanwendungen die geltenden sektorspezifischen Rechtsvorschriften achten. Wenn die körperliche Unversehrtheit auf dem Spiel steht, sollte im Wege von unionsrechtlichen und gegebenenfalls internationalen Normen festgelegt werden, in welchen Fällen die Möglichkeit, dass ein menschlicher Akteur die Kontrolle übernimmt, Vorrang vor der Entscheidung des KI-Systems haben sollte.

Änderungsantrag  22

 

Vorschlag für eine Verordnung

Erwägung 51

 

Vorschlag der Kommission

Geänderter Text

(51) Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung oder Sicherheitsmerkmale zu verändern. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen daher geeignete Maßnahmen ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist.

(51) Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung oder Sicherheitsmerkmale zu verändern. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen, die notifizierten Stellen, die zuständigen nationalen Behörden und die Marktüberwachungsbehörden, die auf die Daten von Anbietern von Hochrisiko-KI-Systemen zugreifen, daher geeignete Maßnahmen ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist.

Änderungsantrag  23

 

Vorschlag für eine Verordnung

Erwägung 54

 

Vorschlag der Kommission

Geänderter Text

(54) Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation erstellen und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der betreffenden Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen.

(54) Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation in der Sprache des betreffenden Mitgliedstaats erstellen und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Alle Elemente von der Konzeption bis zur künftigen Entwicklung sollten für den Nutzer transparent sein. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der betreffenden Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen.

Änderungsantrag  24

 

Vorschlag für eine Verordnung

Erwägung 59

 

Vorschlag der Kommission

Geänderter Text

(59) Es ist angemessen, davon auszugehen, dass der Nutzer des KI-Systems eine natürliche oder juristische Person oder eine Behörde, Einrichtung oder sonstige Stelle ist, die für den Betrieb eines KI-Systems verantwortlich ist, es sei denn, das KI-System wird im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet.

(59) Es ist angemessen, davon auszugehen, dass der Nutzer des KI-Systems eine natürliche oder juristische Person oder eine Behörde, Einrichtung oder sonstige Stelle ist, die für den Betrieb eines KI-Systems verantwortlich ist.

Änderungsantrag  25

 

Vorschlag für eine Verordnung

Erwägung 71

 

Vorschlag der Kommission

Geänderter Text

(71) Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die neuartige Formen der Regulierungsaufsicht und einen sicheren Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen innovationsfreundlichen, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die zuständigen nationalen Behörden eines oder mehrerer Mitgliedstaaten angehalten werden, Reallabore für künstliche Intelligenz einzurichten, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern.

(71) Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die neuartige Formen der Regulierungsaufsicht und einen sicheren Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen innovationsfreundlichen, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die zuständigen nationalen Behörden eines oder mehrerer Mitgliedstaaten angehalten werden, Reallabore für künstliche Intelligenz einzurichten und diese in der gesamten Union zur Verfügung zu stellen, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern. Insbesondere muss sichergestellt werden, dass KMU und Start-up-Unternehmen einen einfachen Zugang zu diesen Reallaboren erhalten und aktiv in die Entwicklung und Erprobung innovativer KI-Systeme einbezogen werden und sich daran beteiligen, damit sie mit ihrem Know-how und ihrer Erfahrung einen Beitrag leisten können. Ihre Beteiligung sollte gefördert und erleichtert werden.

Änderungsantrag  26

 

Vorschlag für eine Verordnung

Erwägung 72

 

Vorschlag der Kommission

Geänderter Text

(72) Die Ziele der Reallabore sollten darin bestehen, Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Erprobungsumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderen einschlägigen Rechtsvorschriften der Union und der Mitgliedstaaten in Einklang stehen. Darüber hinaus sollen sie die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und der Auswirkungen der KI-Nutzung verbessern und den Marktzugang beschleunigen, unter anderem indem Hindernisse für kleine und mittlere Unternehmen (KMU) und Start-up-Unternehmen abgebaut werden. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die am Reallabor Beteiligten sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der am Reallabor Beteiligten sollte berücksichtigt werden, wenn die zuständigen Behörden entscheiden, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.

(72) Die Ziele der Reallabore sollten darin bestehen, Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Erprobungsumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderen einschlägigen Rechtsvorschriften der Union und der Mitgliedstaaten in Einklang stehen. Darüber hinaus sollen sie die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und die Auswirkungen der KI-Nutzung verbessern und den Marktzugang beschleunigen, indem unter anderem Hindernisse für kleine und mittlere Unternehmen und Start-up-Unternehmen abgebaut werden, sowie zum Erreichen der im politischen Programm „Weg in die digitale Dekade“ festgelegten Ziele für KI beitragen. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die am Reallabor Beteiligten sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der am Reallabor Beteiligten sollte berücksichtigt werden, wenn die zuständigen Behörden entscheiden, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.

Änderungsantrag  27

 

Vorschlag für eine Verordnung

Erwägung 73

 

Vorschlag der Kommission

Geänderter Text

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.

(73) Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen von KMU und Nutzern von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sollten die besonderen Interessen und Bedürfnisse von KMU bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen berücksichtigt werden. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere die kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.

Änderungsantrag  28

 

Vorschlag für eine Verordnung

Erwägung 76

 

Vorschlag der Kommission

Geänderter Text

(76) Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschlägen oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz beraten und unterstützen.

(76) Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und beispielsweise Stellungnahmen, Empfehlungen, Ratschläge oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz beraten und unterstützen. Um einen gemeinsamen und kohärenten Ansatz für die Entwicklung von KI sowie eine gute Zusammenarbeit und einen fruchtbaren Meinungsaustausch sicherzustellen, sollte der Ausschuss regelmäßig andere EU-Einrichtungen sowie alle einschlägigen sektorspezifischen Interessenträger konsultieren.

Änderungsantrag  29

 

Vorschlag für eine Verordnung

Erwägung 77 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(77a) Um den Wissensaustausch über bewährte Verfahren zu fördern, sollte die Kommission regelmäßige Konsultationssitzungen zum Austausch von Know-how zwischen den für die Notifizierungspolitik zuständigen nationalen Behörden der einzelnen Mitgliedstaaten organisieren.

Änderungsantrag  30

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) Vorschriften für die Marktbeobachtung und Marktüberwachung.

e) Vorschriften für die Marktbeobachtung, Marktüberwachung und Governance.

Änderungsantrag  31

 

Vorschlag für eine Verordnung

Artikel 1 – Absatz 1 – Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) Vorkehrungen zur Förderung und Unterstützung von Forschung und Entwicklung im Dienste der Innovation.

Änderungsantrag  32

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Für Hochrisiko-KI-Systeme, die Sicherheitskomponenten von Produkten oder Systemen oder selbst Produkte oder Systeme sind, die in den Anwendungsbereich der folgenden Rechtsakte fallen, gilt nur Artikel 84 dieser Verordnung:

(2) Für KI-Systeme, die als Hochrisiko-KI-Systeme gemäß Artikel 6 eingestuft sind und sich auf Produkte beziehen, die unter die in Anhang II Abschnitt B aufgeführten Harmonisierungsrechtsvorschriften der Union fallen, gilt nur Artikel 84 dieser Verordnung.

Änderungsantrag  33

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Verordnung (EG) Nr. 300/2008,

entfällt

Änderungsantrag  34

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Verordnung (EU) Nr. 167/2013,

entfällt

Änderungsantrag  35

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Verordnung (EU) Nr. 168/2013,

entfällt

Änderungsantrag  36

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) Richtlinie 2014/90/EU,

entfällt

Änderungsantrag  37

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) Richtlinie (EU) 2016/797,

entfällt

Änderungsantrag  38

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe f

 

Vorschlag der Kommission

Geänderter Text

f) Verordnung (EU) 2018/858,

entfällt

Änderungsantrag  39

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) Verordnung (EU) 2018/1139,

entfällt

Änderungsantrag  40

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 2 – Buchstabe h

 

Vorschlag der Kommission

Geänderter Text

h) Verordnung (EU) 2019/2144.

entfällt

Änderungsantrag  41

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Diese Verordnung gilt weder für KI-Systeme, die ausschließlich zum Zweck der Forschung und Entwicklung entwickelt und in Betrieb genommen werden, noch für die Ergebnisse dieser Systeme.

Änderungsantrag  42

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5b) Diese Verordnung gilt nicht für Forschungs- und Entwicklungsaktivitäten zu KI-Systemen, wenn eine solche Aktivität nicht dazu führt oder es erforderlich macht, ein KI-System in Verkehr zu bringen oder in Betrieb zu nehmen, und die anerkannten wissenschaftlichen Ethikstandards in vollem Umfang eingehalten werden.

Änderungsantrag  43

 

Vorschlag für eine Verordnung

Artikel 2 – Absatz 5 c (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5c) Die vorliegende Verordnung lässt die Vorschriften, die in anderen Rechtsakten der Union zur Regelung des Schutzes personenbezogener Daten festgelegt sind – insbesondere in der Verordnung (EU) 2016/679, der Verordnung (EU) 2018/1725, der Richtlinie 2002/57/EG und der Richtlinie (EU) 2016/680 –, unberührt.

Änderungsantrag  44

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 1

 

Vorschlag der Kommission

Geänderter Text

1. „System der künstlichen Intelligenz“ (KI-System) eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren;

1. „System der künstlichen Intelligenz“ (KI-System) ein System, das

 

i) maschinelle und/oder menschliche Daten und Eingaben empfängt,

 

ii) durch Lernen, Folgerungen oder Modellierung ableitet, wie eine bestimmte Reihe von Zielen, die vom Menschen festgelegt wurden, mit den in Anhang I aufgeführten Techniken und Konzepten erreicht werden kann, und

 

iii) Ergebnisse in Form von Inhalten (generative KI-Systeme), Vorhersagen, Empfehlungen oder Entscheidungen hervorbringt, die das Umfeld beeinflussen, mit dem es interagiert;

Änderungsantrag  45

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 4

 

Vorschlag der Kommission

Geänderter Text

4. „Nutzer“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet;

4. „Nutzer“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet;

Änderungsantrag  46

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

5a. „Produkthersteller“ einen Hersteller im Sinne von jeder der in Anhang II aufgelisteten Rechtsvorschriften der Union;

Änderungsantrag  47

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 13

 

Vorschlag der Kommission

Geänderter Text

13. „vernünftigerweise vorhersehbare Fehlanwendung“ die Verwendung eines KI-Systems in einer Weise, die nicht seiner Zweckbestimmung entspricht, die sich aber aus einem vernünftigerweise vorhersehbaren menschlichen Verhalten oder einer vernünftigerweise vorhersehbaren Interaktion mit anderen Systemen ergeben kann;

13. „vernünftigerweise vorhersehbare Fehlanwendung“ die Verwendung eines KI-Systems in einer Weise, die nicht seinem in der Gebrauchsanweisung oder in den technischen Spezifikationen angegebenen Zweck entspricht, die sich aber aus einem vernünftigerweise vorhersehbaren menschlichen Verhalten oder einer vernünftigerweise vorhersehbaren Interaktion mit anderen Systemen ergeben kann;

Änderungsantrag  48

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 14

 

Vorschlag der Kommission

Geänderter Text

14. „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Sachen gefährdet;

14. „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems, dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Sachen gefährdet;

Änderungsantrag  49

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 35

 

Vorschlag der Kommission

Geänderter Text

35. „System zur biometrischen Kategorisierung“ ein KI-System, das dem Zweck dient, natürliche Personen auf der Grundlage ihrer biometrischen Daten bestimmten Kategorien wie Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierung, ethnische Herkunft oder sexuelle oder politische Ausrichtung zuzuordnen;

35. „System zur biometrischen Kategorisierung“ ein KI-System, das dem Zweck dient, natürliche Personen auf der Grundlage ihrer biometrischen Daten bestimmten Kategorien wie Geschlecht, Alter, Behinderung, Haarfarbe, Augenfarbe, Tätowierung, ethnische Herkunft oder sexuelle oder politische Ausrichtung zuzuordnen;

Änderungsantrag  50

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

44. „schwerwiegender Vorfall“ ein Vorkommnis, das direkt oder indirekt eine der nachstehenden Folgen hat, hätte haben können oder haben könnte:

44. „schwerwiegender Vorfall“ ein Vorkommnis oder eine Fehlfunktion eines KI-Systems, das oder die direkt oder indirekt eine der nachstehenden Folgen hat, hätte haben können oder haben könnte:

Änderungsantrag  51

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44a. „personenbezogene Daten“ Daten im Sinne von Artikel 4 Nummer 1 der Verordnung (EU) 2016/679;

Änderungsantrag  52

 

Vorschlag für eine Verordnung

Artikel 3 – Absatz 1 – Nummer 44 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

44b. „nicht personenbezogene Daten“ Daten, die keine personenbezogenen Daten im Sinne des Artikels 4 Nummer 1 der Verordnung (EU) 2016/679 sind.

Änderungsantrag  53

 

Vorschlag für eine Verordnung

Artikel 4 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung der Liste der Techniken und Konzepte in Anhang I zu erlassen, um diese Liste auf der Grundlage von Merkmalen, die den dort aufgeführten Techniken und Konzepten ähnlich sind, an Marktentwicklungen und technische Entwicklungen anzupassen.

Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung der Liste der Techniken und Konzepte in Anhang I, die unter die Bestimmung des Begriffs „KI-System“ gemäß Artikel 3 Nummer 1 fallen, zu erlassen, um diese Liste auf der Grundlage von Merkmalen, die den dort aufgeführten Techniken und Konzepten ähnlich sind, an Marktentwicklungen und technische Entwicklungen anzupassen.

Änderungsantrag  54

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 1 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(1) Ungeachtet dessen, ob ein KI-System unabhängig von den unter den Buchstaben a und b genannten Produkten in Verkehr gebracht oder in Betrieb genommen wird, gilt es als Hochrisiko-KI-System, wenn die beiden folgenden Bedingungen erfüllt sind:

(1) Ein KI-System, das selbst ein Produkt ist, das unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fällt, gilt als hochriskant, wenn es hinsichtlich seines Inverkehrbringens oder seiner Inbetriebnahme gemäß den genannten Rechtsvorschriften einer Konformitätsbewertung durch einen Dritten unterzogen werden muss.

Änderungsantrag  55

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) das KI-System soll als Sicherheitskomponente eines unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder ist selbst ein solches Produkt;

(2) Ein KI-System, das als Sicherheitskomponente eines Produkts verwendet werden soll, das unter die in Absatz 1 genannten Rechtsvorschriften fällt, gilt als hochriskant, wenn es hinsichtlich seines Inverkehrbringens oder seiner Inbetriebnahme gemäß den genannten Rechtsvorschriften einer Konformitätsbewertung durch einen Dritten unterzogen werden muss. Diese Bestimmung gilt ungeachtet dessen, ob das KI-System unabhängig von dem jeweiligen Produkt in Verkehr gebracht oder in Betrieb genommen wird.

Änderungsantrag  56

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Zusätzlich zu den in Absatz 1 genannten Hochrisiko-KI-Systemen gelten die in Anhang III genannten KI-Systeme ebenfalls als hochriskant.

(3) Die in Anhang III genannten  KI-Systeme gelten als hochriskant.

Änderungsantrag  57

 

Vorschlag für eine Verordnung

Artikel 6 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Die Einstufung als hochriskant gemäß Artikel 6 Absätze 1, 2 und 3 gilt nicht für KI-Systeme, deren Zweckbestimmung deutlich macht, dass das hervorgebrachte Ergebnis eine Empfehlung ist, die einen menschlichen Eingriff erfordert, mit dem diese Empfehlung in eine Entscheidung umgewandelt wird, und für KI-Systeme, die keine eigenständigen Entscheidungen treffen oder Handlungen des Systems insgesamt nach sich ziehen.

Änderungsantrag  58

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) die KI-Systeme bergen ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder nachteiliger Auswirkungen auf die Grundrechte, das im Hinblick auf die Schwere und die Wahrscheinlichkeit des Eintretens dem Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt.

b) die KI-Systeme bergen ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder nachteiliger Auswirkungen auf die Grundrechte oder die Umwelt, das im Hinblick auf die Schwere und die Wahrscheinlichkeit des Eintretens dem Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt.

Änderungsantrag  59

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Bewertung für die Zwecke des Absatzes 1, ob ein KI-System ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder ein Risiko nachteiliger Auswirkungen auf die Grundrechte birgt, das dem Risiko der Schädigung oder Beeinträchtigung gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt, berücksichtigt die Kommission folgende Kriterien:

(2) Bei der Bewertung für die Zwecke des Absatzes 1, ob ein KI-System ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder ein Risiko nachteiliger Auswirkungen auf die Grundrechte oder die Umwelt birgt, das dem Risiko der Schädigung oder Beeinträchtigung gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt, berücksichtigt die Kommission folgende Kriterien:

Änderungsantrag  60

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit geschädigt, die Sicherheit beeinträchtigt oder negative Auswirkungen auf die Grundrechte verursacht worden sind oder nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Behörden übermittelt werden, Anlass zu erheblichen Bedenken hinsichtlich des Eintretens solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen besteht;

c) das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit geschädigt, die Sicherheit beeinträchtigt oder negative Auswirkungen auf die Grundrechte oder die Umwelt verursacht worden sind oder nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Behörden übermittelt werden, Anlass zu erheblichen Bedenken hinsichtlich des Eintretens solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen besteht;

Änderungsantrag  61

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) das potenzielle Ausmaß solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, eine Vielzahl von Personen zu beeinträchtigen;

d) das potenzielle Ausmaß solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, eine Vielzahl von Personen oder die Umwelt zu beeinträchtigen;

Änderungsantrag  62

 

Vorschlag für eine Verordnung

Artikel 7 – Absatz 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) das Ausmaß, in dem das mit einem KI-System hervorgebrachte Ergebnis leicht rückgängig zu machen ist, wobei Ergebnisse, die sich auf die Gesundheit oder Sicherheit von Personen auswirken, nicht als leicht rückgängig zu machen gelten;

g) das Ausmaß, in dem das mit einem KI-System hervorgebrachte Ergebnis leicht rückgängig zu machen ist, wobei Ergebnisse, die sich abträglich auf die Gesundheit oder Sicherheit von Personen oder auf die Umwelt auswirken, nicht als leicht rückgängig zu machen gelten;

Änderungsantrag  63

 

Vorschlag für eine Verordnung

Artikel 8 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme müssen die in diesem Kapitel festgelegten Anforderungen erfüllen.

(1) Hochrisiko-KI-Systeme müssen die in diesem Kapitel festgelegten Anforderungen erfüllen und dabei – falls angezeigt – sektorspezifischen Rechtsvorschriften, harmonisierten Normen und gemeinsamen Spezifikationen Rechnung tragen.

Änderungsantrag  64

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Ermittlung und Analyse der bekannten und vorhersehbaren Risiken, die von jedem Hochrisiko-KI-System ausgehen;

a) Ermittlung und Analyse der bekannten und vorhersehbaren Risiken, die von jedem Hochrisiko-KI-System ausgehen und die im Hinblick auf die Zweckbestimmung oder eine Fehlanwendung des Hochrisiko-KI-Systems die Umwelt oder die Gesundheit, die Sicherheit oder die Grundrechte von Personen beeinträchtigen oder schädigen könnten;

Änderungsantrag  65

Vorschlag für eine Verordnung

Artikel 9 – Absatz 2 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) Bewertung anderer möglicherweise auftretender Risiken auf der Grundlage der Auswertung der Daten aus dem in Artikel 61 genannten System zur Beobachtung nach dem Inverkehrbringen;

c) Bewertung anderer möglicherweise auftretender Risiken auf der Grundlage der Auswertung der Daten aus dem System zur Beobachtung nach dem Inverkehrbringen;

Änderungsantrag  66

 

Vorschlag für eine Verordnung

Artikel 9 – Absatz 4 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass jedes mit einer bestimmten Gefahr verbundene Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme als vertretbar beurteilt werden kann, sofern das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird. Diese Restrisiken müssen den Nutzern mitgeteilt werden.

Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass jedes mit einer bestimmten Gefahr verbundene Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme als vertretbar beurteilt werden kann, sofern das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, vorbehaltlich der vom Anbieter zur Verfügung gestellten Bedingungen sowie vertraglicher und lizenzrechtlicher Einschränkungen. Diese Restrisiken müssen den Nutzern mitgeteilt werden.

Änderungsantrag  67

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen.

(1) Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, werden auf der Grundlage von Trainings-, Validierungs- und Testdatensätzen entwickelt, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien, falls anwendbar, entsprechen.

Änderungsantrag  68

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 2 – Buchstabe g

 

Vorschlag der Kommission

Geänderter Text

g) die Ermittlung möglicher Datenlücken oder Mängel und wie diese Lücken und Mängel behoben werden können.

g) die Ermittlung etwaiger anderer Datenlücken oder Mängel, die das Risiko eines Schadens für die Gesundheit, die Umwelt und die Sicherheit oder die Grundrechte von Personen wesentlich erhöhen, und wie diese Lücken und Mängel behoben werden können.

Änderungsantrag  69

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Diese Merkmale der Datensätze können durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.

(3) Die Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ, so weit wie möglich fehlerfrei und möglichst vollständig sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Diese Merkmale der Datensätze können durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.

Änderungsantrag  70

 

Vorschlag für eine Verordnung

Artikel 10 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Trainings-, Validierungs- und Testdatensätze müssen, soweit dies für die Zweckbestimmung erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.

(4) Die Trainings-, Validierungs- und Testdatensätze müssen hinreichend vielfältig sein, um – soweit dies für die Zweckbestimmung erforderlich ist – die Merkmale oder Elemente präzise zu erfassen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.

Änderungsantrag  71

 

Vorschlag für eine Verordnung

Artikel 11 – Absatz 1 – Unterabsatz 2

 

Vorschlag der Kommission

Geänderter Text

Die technische Dokumentation wird so erstellt, dass aus ihr der Nachweis hervorgeht, wie das Hochrisiko-KI-System die Anforderungen dieses Kapitels erfüllt, und dass den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt. Sie enthält zumindest die in Anhang IV genannten Angaben.

Die technische Dokumentation wird so erstellt, dass aus ihr der Nachweis hervorgeht, wie das Hochrisiko-KI-System die Anforderungen dieses Kapitels erfüllt, und dass den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt. Sie enthält zumindest die in Anhang IV genannten Angaben oder – im Falle von KMU und Start-up-Unternehmen – alle gleichwertigen Unterlagen, die denselben Zwecken dienen, vorbehaltlich der Genehmigung durch die zuständige Behörde. Die Dokumentation wird während des gesamten Lebenszyklus auf dem neuesten Stand gehalten.

Änderungsantrag  72

 

Vorschlag für eine Verordnung

Artikel 12 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die Protokollierung gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus in einem der Zweckbestimmung des Systems angemessenen Maße rückverfolgbar ist.

(2) Durch die Protokollierung wird sichergestellt, dass das Funktionieren des KI-Systems, solange es während seines Lebenszyklus verwendet wird, in einem der Zweckbestimmung des Systems angemessenen Maße rückverfolgbar ist.

Änderungsantrag  73

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Hochrisiko-KI-Systeme werden mit Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen versehen, die präzise, vollständige, korrekte und eindeutige Informationen in einer für die Nutzer relevanten, barrierefrei zugänglichen und verständlichen Form enthalten.

(2) Hochrisiko-KI-Systeme werden mit Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen versehen, die präzise, vollständige, korrekte und eindeutige Informationen in einer für die Nutzer relevanten, barrierefrei zugänglichen und verständlichen Form enthalten, um sie bei der Bedienung und Instandhaltung des KI-Systems zu unterstützen, wobei die Zweckbestimmung des Systems und die erwartete Zielgruppe bei den Gebrauchsanweisungen zu berücksichtigen sind.

Änderungsantrag  74

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer ii

 

Vorschlag der Kommission

Geänderter Text

ii) des Maßes an Genauigkeit, Robustheit und Cybersicherheit gemäß Artikel 15, für das das Hochrisiko-KI-System getestet und validiert wurde und das zu erwarten ist, sowie alle bekannten und vorhersehbaren Umstände, die sich auf das erwartete Maß an Genauigkeit, Robustheit und Cybersicherheit auswirken können,

ii) des Maßes an Genauigkeit, Robustheit und Cybersicherheit gemäß Artikel 15, für das das Hochrisiko-KI-System getestet und validiert wurde und das zu erwarten ist, sowie alle bekannten und vernünftigerweise vorhersehbaren Umstände, die sich wesentlich auf das erwartete Maß an Genauigkeit, Robustheit und Cybersicherheit auswirken könnten,

Änderungsantrag  75

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe b – Ziffer iii

 

Vorschlag der Kommission

Geänderter Text

iii) aller bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit oder die Grundrechte führen können,

iii) aller bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit, die Grundrechte oder die Umwelt führen können,

Änderungsantrag  76

 

Vorschlag für eine Verordnung

Artikel 13 – Absatz 3 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) die erwartete Lebensdauer des Hochrisiko-KI-Systems und alle erforderlichen Wartungs- und Pflegemaßnahmen zur Gewährleistung des ordnungsgemäßen Funktionierens dieses KI-Systems, auch in Bezug auf Software-Updates.

e) die erwartete Lebensdauer des Hochrisiko-KI-Systems, die Beschreibung des Verfahrens für seine Rücknahme aus dem Gebrauch und alle erforderlichen Instandhaltungs- und Pflegemaßnahmen zur Gewährleistung des ordnungsgemäßen Funktionierens dieses KI-Systems, auch in Bezug auf Software-Updates.

Änderungsantrag  77

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie während der Dauer der Verwendung des KI-Systems – auch mit geeigneten Werkzeugen einer Mensch-Maschine-Schnittstelle – von natürlichen Personen wirksam beaufsichtigt werden können.

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt – auch mit geeigneten Werkzeugen einer Mensch-Maschine-Schnittstelle –, dass sie während der Dauer der Verwendung des KI-Systems  von natürlichen Personen wirksam beaufsichtigt werden können, es sei denn, es liegen eindeutige Belege dafür vor, dass menschliche Eingriffe die Sicherheit des betreffenden Hochrisiko-KI-Systems beeinträchtigen.

Änderungsantrag  78

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit oder die Grundrechte, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen.

(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit oder die Grundrechte bzw. die Umwelt, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen.

Änderungsantrag  79

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Einleitung

 

Vorschlag der Kommission

Geänderter Text

(4) Die in Absatz 3 genannten Maßnahmen müssen den Personen, denen die menschliche Aufsicht übertragen wurde, je nach den Umständen Folgendes ermöglichen:

(4) Die in Absatz 3 genannten Maßnahmen müssen den Personen, denen die menschliche Aufsicht übertragen wurde, je nach den Umständen – und sofern verhältnismäßig – Folgendes ermöglichen:

Änderungsantrag  80

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) die Fähigkeiten und Grenzen des Hochrisiko-KI-Systems vollständig zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen, damit Anzeichen von Anomalien, Fehlfunktionen und unerwarteter Leistung so bald wie möglich erkannt und behoben werden können;

a) ein angemessenes Verständnis der Fähigkeiten und Grenzen des Hochrisiko-KI-Systems zu entwickeln und seinen Betrieb ordnungsgemäß zu überwachen, damit Anzeichen von Anomalien, Fehlfunktionen und unerwarteter Leistung schnellstmöglich erkannt und behoben werden können;

Änderungsantrag  81

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe d

 

Vorschlag der Kommission

Geänderter Text

d) in einer bestimmten Situation zu beschließen, das Hochrisiko-KI-System nicht zu verwenden oder das Ergebnis des Hochrisiko-KI-Systems anderweitig außer Acht zu lassen, außer Kraft zu setzen oder rückgängig zu machen;

d) in einer bestimmten Situation zu beschließen, das Hochrisiko-KI-System nicht zu verwenden oder das Ergebnis des Hochrisiko-KI-Systems anderweitig außer Acht zu lassen, außer Kraft zu setzen oder rückgängig zu machen, es sei denn, es liegen eindeutige Belege dafür vor, dass ein solches menschliches Eingreifen die Risiken erhöht oder sich anderweitig negativ auf die Leistung des Systems auswirkt;

Änderungsantrag  82

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe e

 

Vorschlag der Kommission

Geänderter Text

e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen.

e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen, das System in den Störungssicherheitsbetrieb zu versetzen, das System in den Modus der manuellen Kontrolle zu versetzen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu beenden, es sei denn, es liegen eindeutige Belege dafür vor, dass ein solches menschliches Eingreifen die Risiken erhöht oder sich anderweitig negativ auf die Leistung des Systems auswirkt;

Änderungsantrag  83

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 4 – Buchstabe e a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ea) zu erkennen, wann die Entscheidung eines Hochrisiko-KI-Systems der menschlichen Aufsicht vorzuziehen ist.

Änderungsantrag  84

 

Vorschlag für eine Verordnung

Artikel 14 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 genannten Vorkehrungen so gestaltet sein, dass außerdem der Nutzer keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange dies nicht von mindestens zwei natürlichen Personen überprüft und bestätigt wurde.

(5) Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 genannten Vorkehrungen so gestaltet sein, dass außerdem der Nutzer keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange dies nicht mindestens zwei natürliche Personen unabhängig voneinander überprüft und bestätigt haben.

Änderungsantrag  85

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie im Hinblick auf ihre Zweckbestimmung ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.

(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie im Hinblick auf ihre Zweckbestimmung das höchstmögliche Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.

Änderungsantrag  86

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 3 – Unterabsatz 1

 

Vorschlag der Kommission

Geänderter Text

Hochrisiko-KI-Systeme müssen widerstandsfähig gegenüber Fehlern, Störungen oder Unstimmigkeiten sein, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen auftreten können.

Anbieter sollten alle angemessenen und durchführbaren Maßnahmen ergreifen, damit Hochrisiko-KI-Systeme widerstandsfähig gegenüber Fehlern, Störungen oder Unstimmigkeiten sind, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird – insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen –, auftreten können.

Änderungsantrag  87

 

Vorschlag für eine Verordnung

Artikel 15 – Absatz 3 – Unterabsatz 3

 

Vorschlag der Kommission

Geänderter Text

Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass auf möglicherweise verzerrte Ergebnisse, die durch eine Verwendung vorheriger Ergebnisse als Eingabedaten für den künftigen Betrieb entstehen („Rückkopplungsschleifen“), angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.

Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass auf möglicherweise verzerrte Ergebnisse, die sich auf Eingabedaten für den künftigen Betrieb auswirken („Rückkopplungsschleifen“), angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.

Änderungsantrag  88

 

Vorschlag für eine Verordnung

Artikel 28 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) wenn sie die Zweckbestimmung eines bereits in Verkehr gebrachten oder in Betrieb genommenen nicht hochriskanten KI-Systems dergestalt ändern, dass das geänderte System zu einem Hochrisiko-KI-System wird.

Änderungsantrag  89

 

Vorschlag für eine Verordnung

Artikel 29 – Absatz 6 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6a) Dieser Artikel gilt nur für Nutzer, die in beruflicher Funktion handeln, und nicht für Nutzer, die KI im Rahmen einer persönlichen, nicht beruflichen Tätigkeit verwenden.

Änderungsantrag  90

Vorschlag für eine Verordnung

Artikel 29 – Absatz 6 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(6b) Nutzer von Hochrisiko-KI-Systemen, die den Zweck, für den die Konformität des KI-Systems ursprünglich bewertet wurde, ändern oder erweitern, müssen ein System zur Beobachtung nach dem Inverkehrbringen einrichten und dokumentieren (Artikel 61) und eine neue Konformitätsbewertung (Artikel 43) durch eine notifizierte Stelle vornehmen lassen.

Änderungsantrag  91

 

Vorschlag für eine Verordnung

Artikel 30 – Absatz 8

 

Vorschlag der Kommission

Geänderter Text

(8) Notifizierende Behörden gewährleisten, dass Konformitätsbewertungen in angemessener Art und Weise und ohne unnötige Belastungen für die Anbieter durchgeführt werden und dass die notifizierten Stellen bei ihren Tätigkeiten die Größe eines Unternehmens, die Branche, in der es tätig ist, seine Struktur und die Komplexität des betreffenden KI-Systems gebührend berücksichtigen.

(8) Notifizierende Behörden gewährleisten, dass Konformitätsbewertungen in angemessener Art und Weise und ohne unnötige Belastungen für die Anbieter durchgeführt werden und dass die notifizierten Stellen bei ihren Tätigkeiten die Größe eines Unternehmens, die Branche, in der es tätig ist, seine Struktur und die Komplexität des betreffenden KI-Systems gebührend berücksichtigen. In diesem Zusammenhang ist besonders darauf zu achten, dass die Befolgungskosten für Kleinstunternehmen und KMU verhältnismäßig sind.

Änderungsantrag  92

 

Vorschlag für eine Verordnung

Artikel 33 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Die notifizierten Stellen gewährleisten durch dokumentierte Verfahren, dass ihre Mitarbeiter, Ausschüsse, Zweigstellen, Unterauftragnehmer sowie alle zugeordneten Stellen oder Mitarbeiter externer Einrichtungen die Vertraulichkeit der Informationen, die bei der Durchführung der Konformitätsbewertungstätigkeiten in ihren Besitz gelangen, wahren, außer wenn die Offenlegung gesetzlich vorgeschrieben ist. Informationen, von denen Mitarbeiter der notifizierten Stellen bei der Durchführung ihrer Aufgaben gemäß dieser Verordnung Kenntnis erlangen, unterliegen der beruflichen Schweigepflicht, außer gegenüber den notifizierenden Behörden des Mitgliedstaats, in dem sie ihre Tätigkeiten ausüben.

(6) Die notifizierten Stellen gewährleisten durch dokumentierte Verfahren, dass ihre Mitarbeiter, Ausschüsse, Zweigstellen, Unterauftragnehmer sowie alle zugeordneten Stellen oder Mitarbeiter externer Einrichtungen die Vertraulichkeit der Informationen, die bei der Durchführung der Konformitätsbewertungstätigkeiten in ihren Besitz gelangen, wahren, außer wenn die Offenlegung gesetzlich vorgeschrieben ist. Informationen, von denen Mitarbeiter der notifizierten Stellen bei der Durchführung ihrer Aufgaben gemäß dieser Verordnung Kenntnis erlangen, unterliegen der beruflichen Schweigepflicht, außer gegenüber den notifizierenden Behörden des Mitgliedstaats, in dem sie ihre Tätigkeiten ausüben. Alle Informationen und Unterlagen, in deren Besitz eine notifizierte Stelle auf der Grundlage dieses Artikels gelangt, werden im Einklang mit den in Artikel 70 festgelegten Vertraulichkeitspflichten behandelt.

Änderungsantrag  93

 

Vorschlag für eine Verordnung

Artikel 39 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Artikel 39a

 

Austausch von Know-how und bewährten Verfahren

 

Die Kommission fördert regelmäßige Konsultationssitzungen zum Austausch von Know-how und bewährten Verfahren zwischen den nationalen Behörden der Mitgliedstaaten, die für die Notifizierungspolitik zuständig sind.

Änderungsantrag  94

 

Vorschlag für eine Verordnung

Artikel 40 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

Bei der Erteilung eines Normungsauftrags an die europäischen Normungsorganisationen gemäß Artikel 10 der Verordnung (EU) 1025/2012 ordnet die Kommission an, dass die Normen kohärent, leicht umsetzbar und so abgefasst sind, dass sie insbesondere auf die Verwirklichung der folgenden Ziele ausgerichtet sind:

 

a) Sie stellen sicher, dass KI-Systeme, die in der Union in Verkehr gebracht oder in Betrieb genommen werden, sicher sind und die Werte der Union und das öffentliche Interesse achten und die digitale Führungsrolle der Union stärken;

 

b) sie fördern Investitionen und Innovationen im Bereich der KI sowie die Wettbewerbsfähigkeit und das Wachstum des Unionsmarktes;

 

c) sie verbessern die Governance für die Interessenträger, indem sie dafür sorgen, dass alle relevanten europäischen Interessenträger (z. B. Zivilgesellschaft, Forschung, Industrie, KMU) einbezogen werden und vertreten sind;

 

d) sie tragen zur Stärkung der weltweiten Zusammenarbeit bei der Normung im Bereich der KI bei, die mit den Werten und Interessen der Union im Einklang steht.

 

Die Kommission fordert die europäischen Normungsorganisationen auf, regelmäßig über ihre Fortschritte bei der Verwirklichung der genannten Ziele zu berichten.

Änderungsantrag  95

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Gibt es keine harmonisierten Normen gemäß Artikel 40 oder ist die Kommission der Auffassung, dass die einschlägigen harmonisierten Normen unzureichend sind oder dass bestimmte Bedenken hinsichtlich der Sicherheit oder der Grundrechte ausgeräumt werden müssen, so kann die Kommission im Wege von Durchführungsrechtsakten gemeinsame Spezifikationen für die Anforderungen in Kapitel 2 dieses Titels festlegen. Diese Durchführungsrechtsakte werden gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.

(1) Gibt es keine harmonisierten Normen gemäß Artikel 40 oder ist die Kommission der Auffassung, dass die einschlägigen harmonisierten Normen unzureichend sind oder dass bestimmte Bedenken hinsichtlich der Sicherheit oder der Grundrechte ausgeräumt werden müssen, so kann die Kommission nach Anhörung des in Artikel 56 genannten Europäischen Ausschusses für künstliche Intelligenz und der für eine bestimmte Branche zuständigen Behörden und Organisationen im Wege von Durchführungsrechtsakten gemeinsame Spezifikationen für die Anforderungen in Kapitel 2 dieses Titels festlegen. Diese Durchführungsrechtsakte werden gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.

Änderungsantrag  96

 

Vorschlag für eine Verordnung

Artikel 41 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Bei der Ausarbeitung der in Absatz 1 genannten gemeinsamen Spezifikationen holt die Kommission die Stellungnahmen der einschlägigen Stellen oder Expertengruppen ein, die nach den jeweiligen sektorspezifischen Rechtsvorschriften der Union eingerichtet wurden.

(2) Bei der Ausarbeitung der in Absatz 1 genannten gemeinsamen Spezifikationen erfüllt die Kommission die in Artikel 40 Absatz 2 genannten Ziele und holt die Stellungnahmen der einschlägigen Stellen oder Expertengruppen, die nach den jeweiligen sektorspezifischen Rechtsvorschriften der Union eingerichtet wurden, und der einschlägigen sektorspezifischen Interessenträger ein.

Änderungsantrag  97

 

Vorschlag für eine Verordnung

Artikel 43 – Absatz 6

 

Vorschlag der Kommission

Geänderter Text

(6) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen.

(6) Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit, die Umwelt und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen.

Änderungsantrag  98

Vorschlag für eine Verordnung

Artikel 52 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Transparenzpflichten für bestimmte KI-Systeme

Transparenzpflichten für KI-Systeme

Änderungsantrag  99

Vorschlag für eine Verordnung

Artikel 52 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Die Anbieter von KI-Systemen sollten die Parameter für die Umweltauswirkungen dokumentieren und auf Anfrage zur Verfügung stellen, einschließlich beispielsweise des Ressourcenverbrauchs, der sich aus der Konzeption, der Datenverwaltung und dem Training ergibt, sowie der dem KI-System zugrunde liegenden Infrastrukturen und der Methoden zur Verringerung dieser Auswirkungen.

Änderungsantrag  100

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) KI-Reallabore, die von den zuständigen Behörden eines oder mehrerer Mitgliedstaaten oder vom Europäischen Datenschutzbeauftragten eingerichtet werden, bieten eine kontrollierte Umgebung, um die Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme nach einem spezifischen Plan zu erleichtern. Dies geschieht unter direkter Aufsicht und Anleitung der zuständigen Behörden, um die Einhaltung der Anforderungen dieser Verordnung und gegebenenfalls anderer Rechtsvorschriften der Union und der Mitgliedstaaten, die innerhalb des Reallabors beaufsichtigt wird, sicherzustellen.

(1) KI-Reallabore, die von den zuständigen Behörden eines oder mehrerer Mitgliedstaaten oder vom Europäischen Datenschutzbeauftragten eingerichtet werden, bieten eine kontrollierte Umgebung, um die Entwicklung, Erprobung und Validierung innovativer KI-Systeme und die sichere Verarbeitung personenbezogener Daten für einen begrenzten Zeitraum vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme nach einem spezifischen Plan zu erleichtern. Dies geschieht unter direkter Aufsicht und Anleitung der zuständigen Behörden, um die Einhaltung der Anforderungen dieser Verordnung und gegebenenfalls anderer Rechtsvorschriften der Union und der Mitgliedstaaten, die innerhalb des Reallabors beaufsichtigt wird, sicherzustellen.

Änderungsantrag  101

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1a) Die Organisatoren von KI-Reallaboren sorgen dafür, dass KMU und Start-up-Unternehmen einen einfachen Zugang erhalten, indem sie deren Beteiligung erleichtern und unterstützen.

Änderungsantrag  102

Vorschlag für eine Verordnung

Artikel 53 – Absatz 1 b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(1b) Die für die Verarbeitung von personenbezogenen Daten Verantwortlichen im Sinne von Artikel 4 Nummer 7 der Verordnung (EU) 2016/679 können personenbezogene Daten in einem KI-Reallabor weiterverarbeiten, soweit dies für die Entwicklung, Erprobung und Validierung von KI-Systemen erforderlich ist. Das Recht auf Verarbeitung unterliegt angemessenen Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen. Diese Verarbeitung darf nicht als unvereinbar mit den ursprünglichen Zwecken angesehen werden.

Änderungsantrag  103

 

Vorschlag für eine Verordnung

Artikel 53 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden unberührt. Alle erheblichen Risiken für die Gesundheit und Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung solcher Systeme festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses bis eine solche Risikominderung erfolgt ist.

(3) Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden unberührt. Alle erheblichen Risiken für die Gesundheit, Sicherheit, die Umwelt oder die Grundrechte, die bei der Entwicklung und Erprobung solcher Systeme festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses, bis eine solche Risikominderung erfolgt ist.

Änderungsantrag  104

Vorschlag für eine Verordnung

Artikel 53 – Absatz 5

 

Vorschlag der Kommission

Geänderter Text

(5) Die zuständigen Behörden der Mitgliedstaaten, die KI-Reallabore eingerichtet haben, koordinieren ihre Tätigkeiten und arbeiten im Rahmen des Europäischen Ausschusses für künstliche Intelligenz zusammen. Sie übermitteln dem Ausschuss und der Kommission jährliche Berichte über die Ergebnisse der Umsetzung dieser Systeme, einschließlich bewährter Verfahren, gewonnener Erkenntnisse und Empfehlungen zu deren Aufbau, sowie gegebenenfalls über die Anwendung dieser Verordnung und anderer Rechtsvorschriften der Union, die innerhalb des Reallabors kontrolliert werden.

(5) Die zuständigen Behörden der Mitgliedstaaten koordinieren ihre Tätigkeiten im Zusammenhang mit KI-Reallaboren und arbeiten im Rahmen des Europäischen Ausschusses für künstliche Intelligenz zusammen. Sie übermitteln dem Ausschuss und der Kommission jährliche Berichte über die Ergebnisse der Umsetzung dieser Systeme, einschließlich bewährter Verfahren, gewonnener Erkenntnisse und Empfehlungen zu deren Aufbau, sowie gegebenenfalls über die Anwendung dieser Verordnung und anderer Rechtsvorschriften der Union, die innerhalb des Reallabors kontrolliert werden.

Änderungsantrag  105

 

Vorschlag für eine Verordnung

Artikel 54 – Absatz 1 – Buchstabe a – Ziffer iii a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

iiia) Sicherheit und Widerstandsfähigkeit von Verkehrssystemen, -infrastrukturen und ‑netzen.

Änderungsantrag  106

 

Vorschlag für eine Verordnung

Artikel 55 – Überschrift

 

Vorschlag der Kommission

Geänderter Text

Maßnahmen für Kleinanbieter und Kleinnutzer

Maßnahmen für KMU, Start-up-Unternehmen und Nutzer

Änderungsantrag  107

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Gewährung eines vorrangigen Zugangs zu den KI-Reallaboren für Kleinanbieter und Start-up-Unternehmen, soweit sie die entsprechenden Voraussetzungen erfüllen;

a) Gewährung eines vorrangigen Zugangs zu den KI-Reallaboren für KMU und Start-up-Unternehmen, soweit sie die entsprechenden Voraussetzungen erfüllen;

Änderungsantrag  108

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe b

 

Vorschlag der Kommission

Geänderter Text

b) Durchführung besonderer Sensibilisierungsmaßnahmen für die Anwendung dieser Verordnung, die auf die Bedürfnisse der Kleinanbieter und Kleinnutzer ausgerichtet sind;

b) Durchführung besonderer Sensibilisierungsmaßnahmen für die Anwendung dieser Verordnung, die auf die Bedürfnisse von KMU, Start-up-Unternehmen und Nutzern ausgerichtet sind;

Änderungsantrag  109

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 1 – Buchstabe c

 

Vorschlag der Kommission

Geänderter Text

c) gegebenenfalls Einrichtung eines eigenen Kanals für die Kommunikation mit Kleinanbietern, Kleinnutzern und anderen Innovatoren, um Orientierungen zu geben und Fragen zur Durchführung dieser Verordnung zu beantworten.

c) gegebenenfalls Einrichtung eines eigenen Kanals für die Kommunikation mit KMU und Nutzern, Start-up-Unternehmen und anderen Innovatoren, um Orientierungen zu geben und Fragen zur Durchführung dieser Verordnung zu beantworten.

Änderungsantrag  110

 

Vorschlag für eine Verordnung

Artikel 55 – Absatz 2 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(2a) Die Mitgliedstaaten finden gegebenenfalls Synergien und arbeiten mit einschlägigen aus Unionsprogrammen finanzierten Mechanismen wie etwa den Europäischen Digitalen Innovationszentren zusammen.

Änderungsantrag  111

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, und dem Europäischen Datenschutzbeauftragten. Weitere nationale Behörden können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind.

(1) Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, dem Europäischen Datenschutzbeauftragten, Experten im Bereich KI-Ethik und Vertretern der Industrie. Weitere nationale, regionale und lokale Behörden können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind.

Änderungsantrag  112

Vorschlag für eine Verordnung

Artikel 57 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Den Vorsitz im Ausschuss führt die Kommission. Die Kommission beruft die Sitzungen ein und bereitet die Tagesordnung im Einklang mit den Aufgaben des Ausschusses gemäß dieser Verordnung und seiner Geschäftsordnung vor. Die Kommission leistet administrative und analytische Unterstützung für die Tätigkeiten des Ausschusses gemäß dieser Verordnung.

(3) Den Vorsitz im Ausschuss führen die Kommission und ein aus den Reihen der Delegierten der Mitgliedstaaten ausgewählter Vertreter gemeinsam. Die Kommission beruft die Sitzungen ein und bereitet die Tagesordnung im Einklang mit den Aufgaben des Ausschusses gemäß dieser Verordnung und seiner Geschäftsordnung vor. Die Kommission leistet administrative und analytische Unterstützung für die Tätigkeiten des Ausschusses gemäß dieser Verordnung.

Änderungsantrag  113

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Der Ausschuss organisiert mindestens zweimal jährlich Konsultationen mit Interessenträgern. Zu diesen Interessenträgern gehören Vertreter aus der Industrie, KMU und Start-up-Unternehmen sowie Organisationen der Zivilgesellschaft wie NGOs, Verbraucherverbände, Sozialpartner und akademische Kreise, um die Entwicklung von Technologietrends, Fragen im Zusammenhang mit der Durchführung und der Wirksamkeit dieser Verordnung sowie in der Praxis beobachtete Regelungslücken oder Schlupflöcher zu bewerten.

Änderungsantrag  114

 

Vorschlag für eine Verordnung

Artikel 57 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Der Ausschuss kann externe Sachverständige und Beobachter zu seinen Sitzungen einladen und einen Meinungsaustausch mit interessierten Dritten führen, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Verwaltungsrat und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union fördern.

(4) Der Ausschuss kann externe Sachverständige und Beobachter zu seinen Sitzungen einladen und einen Meinungsaustausch mit interessierten Dritten führen, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Ausschuss und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union fördern. Der Ausschuss richtet sich aktiv an Angehörige von Bevölkerungsgruppen, die besonders anfällig für diskriminierende Auswirkungen von KI sind, etwa Menschen mit Behinderungen, und hört sie an.

Änderungsantrag  115

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Die Mitgliedstaaten sorgen dafür, dass die zuständigen nationalen Behörden mit angemessenen finanziellen und personellen Ressourcen ausgestattet werden, damit sie ihre Aufgaben im Rahmen dieser Verordnung wahrnehmen können. Insbesondere müssen die zuständigen nationalen Behörden ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten und Datenverarbeitung, der Grundrechte, der Gesundheits- und Sicherheitsrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen.

(4) Die Mitgliedstaaten sorgen dafür, dass die zuständigen nationalen Behörden mit angemessenen finanziellen und personellen Ressourcen ausgestattet werden, damit sie ihre Aufgaben im Rahmen dieser Verordnung wahrnehmen können. Insbesondere müssen die zuständigen nationalen Behörden ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten und Datenverarbeitung, der Grundrechte, der Gesundheits-, Sicherheits- und Umweltrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen.

Änderungsantrag  116

 

Vorschlag für eine Verordnung

Artikel 59 – Absatz 4 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(4a) Alle Informationen und Unterlagen, in deren Besitz eine zuständige nationale Behörde auf der Grundlage der Bestimmungen dieses Artikels gelangt, werden im Einklang mit den in Artikel 70 festgelegten Vertraulichkeitspflichten behandelt.

Änderungsantrag  117

 

Vorschlag für eine Verordnung

Artikel 60 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Die in der EU-Datenbank gespeicherten Daten sind öffentlich zugänglich.

(3) Die in der EU-Datenbank gespeicherten Daten sind öffentlich zugänglich, benutzerfreundlich, leicht handhabbar und maschinenlesbar.

Änderungsantrag  118

 

Vorschlag für eine Verordnung

Artikel 60 – Absatz 5 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(5a) Alle Informationen und Unterlagen, in deren Besitz die Kommission und die Mitgliedstaaten auf der Grundlage dieses Artikels gelangen, werden im Einklang mit den in Artikel 70 festgelegten Vertraulichkeitspflichten behandelt.

Änderungsantrag  119

Vorschlag für eine Verordnung

Artikel 61 – Absatz 2

 

Vorschlag der Kommission

Geänderter Text

(2) Mit dem System zur Beobachtung nach dem Inverkehrbringen müssen sich die einschlägigen von den Nutzern bereitgestellten oder aus anderen Quellen gesammelten Daten zur Leistung der Hochrisiko-KI-Systeme über deren gesamte Lebensdauer hinweg aktiv und systematisch erfassen, dokumentieren und analysieren lassen, und der Anbieter muss damit die fortdauernde Einhaltung der in Titel III Kapitel 2 genannten Anforderungen an die KI-Systeme bewerten können.

(2) Mit dem System zur Beobachtung nach dem Inverkehrbringen müssen sich die einschlägigen, von den Nutzern bereitgestellten oder aus anderen Quellen gesammelten Daten zur Leistung der Hochrisiko-KI-Systeme über deren gesamte Lebensdauer hinweg aktiv und systematisch erfassen, dokumentieren und analysieren lassen, und der Anbieter muss damit die fortdauernde Einhaltung der in Titel III Kapitel 2 genannten Anforderungen durch die KI-Systeme bewerten können. Die Beobachtung nach dem Inverkehrbringen muss eine kontinuierliche Analyse des KI-Umfelds umfassen, wozu auch andere Geräte, Software und sonstige KI-Systeme gehören, die mit dem KI-System interagieren.

Änderungsantrag  120

 

Vorschlag für eine Verordnung

Artikel 65 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Als KI-Systeme, die ein Risiko bergen, gelten Produkte, mit denen ein Risiko im Sinne des Artikels 3 Nummer 19 der Verordnung (EU) 2019/1020 verbunden ist, sofern es sich dabei um Risiken für die Gesundheit oder Sicherheit oder den Schutz der Grundrechte von Personen handelt.

(1) Als KI-Systeme, die ein Risiko bergen, gelten Produkte, mit denen ein Risiko im Sinne des Artikels 3 Nummer 19 der Verordnung (EU) 2019/1020 verbunden ist, sofern es sich dabei um Risiken für die Gesundheit, die Sicherheit oder die Umwelt oder den Schutz der Grundrechte von Personen handelt.

Änderungsantrag  121

 

Vorschlag für eine Verordnung

Artikel 67 – Absatz 1

 

Vorschlag der Kommission

Geänderter Text

(1) Stellt die Marktüberwachungsbehörde nach der gemäß Artikel 65 durchgeführten Prüfung fest, dass ein KI-System dieser Verordnung entspricht, jedoch trotzdem ein Risiko für die Gesundheit oder Sicherheit von Personen, für die Einhaltung der Pflichten aus dem Unionsrecht oder dem nationalen Recht zum Schutz der Grundrechte oder für andere Aspekte des Schutzes öffentlicher Interessen darstellt, fordert sie den betreffenden Akteur auf, alle geeigneten und von ihr möglicherweise vorgegebenen Maßnahmen zu treffen, damit das betreffende KI-System zum Zeitpunkt des Inverkehrbringens oder der Inbetriebnahme dieses Risiko nicht mehr birgt, oder das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist zurückzurufen.

(1) Stellt die Marktüberwachungsbehörde nach der gemäß Artikel 65 durchgeführten Prüfung fest, dass ein KI-System dieser Verordnung zwar entspricht, jedoch trotzdem ein Risiko für die Gesundheit oder Sicherheit von Personen, für die Umwelt, für die Einhaltung der Pflichten aus dem Unionsrecht oder dem nationalen Recht zum Schutz der Grundrechte oder für andere Aspekte des Schutzes öffentlicher Interessen darstellt, fordert sie den betreffenden Akteur auf, alle geeigneten und von ihr möglicherweise vorgegebenen Maßnahmen zu treffen, damit das betreffende KI-System zum Zeitpunkt des Inverkehrbringens oder der Inbetriebnahme dieses Risiko nicht mehr birgt, oder das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist zurückzurufen.

Änderungsantrag  122

 

Vorschlag für eine Verordnung

Artikel 69 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Verhaltenskodizes können von einzelnen KI-System-Anbietern oder von Interessenvertretungen dieser Anbieter oder von beiden aufgestellt werden, auch unter Einbeziehung von Nutzern und Interessenträgern sowie deren Interessenvertretungen. Verhaltenskodizes können sich auf mehrere KI-Systeme erstrecken, um ähnlichen Zweckbestimmungen der jeweiligen Systeme Rechnung zu tragen.

(3) Verhaltenskodizes können von nationalen, regionalen oder lokalen Behörden, von einzelnen KI-System-Anbietern oder von Interessenvertretungen dieser Anbieter oder von beiden aufgestellt werden, auch unter Einbeziehung von Nutzern und Interessenträgern sowie deren Interessenvertretungen. Verhaltenskodizes können sich auf mehrere KI-Systeme erstrecken, um ähnlichen Zweckbestimmungen der jeweiligen Systeme Rechnung zu tragen.

Änderungsantrag  123

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) Art, Schwere und Dauer des Verstoßes und dessen Folgen;

a) Art, Schwere und Dauer des Verstoßes und dessen Folgen, wobei der Zahl der betroffenen Personen und dem Ausmaß des von ihnen erlittenen Schadens, der Vorsätzlichkeit oder Fahrlässigkeit mit Blick auf den Verstoß und etwaigen früheren Verstößen Rechnung zu tragen ist;

Änderungsantrag  124

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe b a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ba) den Umfang der Zusammenarbeit mit der Aufsichtsbehörde, um den Verstoß zu beheben und seine etwaigen nachteiligen Auswirkungen zu mindern;

Änderungsantrag  125

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe b b (neu)

 

Vorschlag der Kommission

Geänderter Text

 

bb) alle vom Anbieter ergriffenen Maßnahmen zur Eindämmung des von den betroffenen Personen erlittenen Schadens;

Änderungsantrag  126

 

Vorschlag für eine Verordnung

Artikel 72 – Absatz 1 – Buchstabe c a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

ca) jegliche anderen erschwerenden oder mildernden Umstände im jeweiligen Fall, wie unmittelbar oder mittelbar durch den Verstoß erlangte finanzielle Vorteile oder vermiedene Verluste.

Änderungsantrag  127

 

Vorschlag für eine Verordnung

Artikel 75 – Absatz 1

Verordnung (EG) Nr. 300/2008

Artikel 4 – Absatz 3 – Unterabsatz 3

 

Vorschlag der Kommission

Geänderter Text

„Beim Erlass detaillierter Maßnahmen, die technische Spezifikationen und Verfahren für die Genehmigung und den Einsatz von Sicherheitsausrüstung betreffen, bei der auch Systeme der künstlichen Intelligenz im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* zum Einsatz kommen, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

„Beim Erlass detaillierter Maßnahmen, die technische Spezifikationen und Verfahren für die Genehmigung und den Einsatz von Sicherheitsausrüstung betreffen, bei der auch Systeme der künstlichen Intelligenz im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* zum Einsatz kommen, werden ohne Beeinträchtigung bestehender Governancemechanismen die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

_______

________

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

Änderungsantrag  128

 

Vorschlag für eine Verordnung

Artikel 76 – Absatz 1

Verordnung (EU) Nr. 167/2013

Artikel 17 – Absatz 5 – Unterabsatz 3

 

Vorschlag der Kommission

Geänderter Text

„Beim Erlass delegierter Rechtsakte nach Unterabsatz 1, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

„Beim Erlass delegierter Rechtsakte nach Unterabsatz 1, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden ohne Beeinträchtigung bestehender Governancemechanismen die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

_______

________

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

Änderungsantrag  129

 

Vorschlag für eine Verordnung

Artikel 78 – Absatz 1

Richtlinie 2014/90/EU

Artikel 8 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) „Bei Systemen der künstlichen Intelligenz, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, berücksichtigt die Kommission bei der Ausübung ihrer Tätigkeiten nach Absatz 1 und bei Erlass technischer Spezifikationen und Prüfnormen nach den Absätzen 2 und 3 die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen.

(4) „Bei Systemen der künstlichen Intelligenz, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, berücksichtigt die Kommission bei der Ausübung ihrer Tätigkeiten nach Absatz 1 und beim Erlass technischer Spezifikationen und Prüfnormen nach den Absätzen 2 und 3 die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen, ohne bestehende Governancemechanismen zu beeinträchtigen.

_______

________

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

Änderungsantrag  130

 

Vorschlag für eine Verordnung

Artikel 79 – Absatz 1

Richtlinie (EU) 2016/797

Artikel 5 – Absatz 12

 

Vorschlag der Kommission

Geänderter Text

(12) „Beim Erlass von delegierten Rechtsakten nach Unterabsatz 1 und von Durchführungsrechtsakten nach Absatz 11, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

(12) „Beim Erlass von delegierten Rechtsakten nach Unterabsatz 1 und von Durchführungsrechtsakten nach Absatz 11, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden ohne Beeinträchtigung bestehender Governancemechanismen die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

_______

________

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

Änderungsantrag  131

 

Vorschlag für eine Verordnung

Artikel 80 – Absatz 1

Verordnung (EU) 2018/858

Artikel 5 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) „Beim Erlass delegierter Rechtsakte nach Absatz 3, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

(4) „Beim Erlass delegierter Rechtsakte nach Absatz 3, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden ohne Beeinträchtigung bestehender Governancemechanismen die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

_______

________

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

Änderungsantrag  132

 

Vorschlag für eine Verordnung

Artikel 81 – Absatz 1 – Nummer 1

Verordnung (EU) 2018/1139

Artikel 17 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) „Unbeschadet des Absatzes 2 werden beim Erlass von Durchführungsrechtakten nach Absatz 1, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

(3) „Unbeschadet des Absatzes 2 und des Systems für Zertifizierung, Aufsicht und Durchsetzung gemäß Artikel 62 der vorliegenden Verordnung werden beim Erlass von Durchführungsrechtakten nach Absatz 1, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, ausschließlich die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

_______

________

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

Änderungsantrag  133

 

Vorschlag für eine Verordnung

Artikel 81 – Absatz 1 – Nummer 2

Verordnung (EU) 2018/1139

Artikel 19 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Beim Erlass delegierter Rechtsakte nach den Absätzen 1 und 2, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

(4) Unbeschadet des Systems für Zertifizierung, Aufsicht und Durchsetzung gemäß Artikel 62 der vorliegenden Verordnung werden beim Erlass delegierter Rechtsakte nach den Absätzen 1 und 2, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, ausschließlich die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

Änderungsantrag  134

 

Vorschlag für eine Verordnung

Artikel 81 – Absatz 1 – Nummer 3

Verordnung (EU) 2018/1139

Artikel 43 – Absatz 4

 

Vorschlag der Kommission

Geänderter Text

(4) Beim Erlass von Durchführungsrechtsakten nach Absatz 1, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

(4) Unbeschadet des Systems für Zertifizierung, Aufsicht und Durchsetzung gemäß Artikel 62 der vorliegenden Verordnung werden beim Erlass von Durchführungsrechtsakten nach Absatz 1, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, ausschließlich die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

Änderungsantrag  135

 

Vorschlag für eine Verordnung

Artikel 81 – Absatz 1 – Nummer 4

Verordnung (EU) 2018/1139

Artikel 47 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Beim Erlass delegierter Rechtsakte nach den Absätzen 1 und 2, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

(3) Unbeschadet des Systems für Zertifizierung, Aufsicht und Durchsetzung gemäß Artikel 62 der vorliegenden Verordnung werden beim Erlass delegierter Rechtsakte nach den Absätzen 1 und 2, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, ausschließlich die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

Änderungsantrag  136

 

Vorschlag für eine Verordnung

Artikel 81 – Absatz 1 – Nummer 5

Verordnung (EU) 2018/1139

Artikel 57 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

Beim Erlass solcher Durchführungsrechtsakte, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

Unbeschadet des Systems für Zertifizierung, Aufsicht und Durchsetzung gemäß Artikel 62 der vorliegenden Verordnung werden beim Erlass solcher Durchführungsrechtsakte, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, ausschließlich die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

Änderungsantrag  137

 

Vorschlag für eine Verordnung

Artikel 81 – Absatz 1 – Nummer 6

Verordnung (EU) 2018/1139

Artikel 58 – Absatz 3

 

Vorschlag der Kommission

Geänderter Text

(3) Beim Erlass delegierter Rechtsakte nach den Absätzen 1 und 2, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

(3) Unbeschadet des Systems für Zertifizierung, Aufsicht und Durchsetzung gemäß Artikel 62 der vorliegenden Verordnung werden beim Erlass delegierter Rechtsakte nach den Absätzen 1 und 2, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, ausschließlich die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

Änderungsantrag  138

 

Vorschlag für eine Verordnung

Artikel 82 – Absatz 1

Verordnung (EU) 2019/2144

Artikel 11

 

Vorschlag der Kommission

Geänderter Text

(3) „Beim Erlass von Durchführungsrechtsakten nach Absatz 2, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

(3) „Beim Erlass von Durchführungsrechtsakten nach Absatz 2, die sich auf Systeme der künstlichen Intelligenz beziehen, bei denen es sich um Sicherheitskomponenten im Sinne der Verordnung (EU) YYY/XX [über Künstliche Intelligenz] des Europäischen Parlaments und des Rates* handelt, werden ohne Beeinträchtigung bestehender Governancemechanismen die in Titel III Kapitel 2 jener Verordnung festgelegten Anforderungen berücksichtigt.

_______

________

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

* Verordnung (EU) YYY/XX [über Künstliche Intelligenz] (ABl...)“

Änderungsantrag  139

Vorschlag für eine Verordnung

Artikel 84 – Absatz 3 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(3a) Innerhalb von [zwei Jahren nach dem Geltungsbeginn dieser Verordnung gemäß Artikel 85 Absatz 2] und danach alle zwei Jahre bewertet die Kommission die Auswirkungen und die Wirksamkeit dieser Verordnung in Bezug auf den Energieverbrauch und andere Umweltauswirkungen von KI-Systemen und prüft die Einführung von Rechtsvorschriften zur Regulierung der Energieeffizienz von IKT-Systemen, damit die Branche einen Beitrag zur Klimastrategie und zu den Klimazielen der Union leistet.

Änderungsantrag  140

 

Vorschlag für eine Verordnung

Artikel 84 – Absatz 7 a (neu)

 

Vorschlag der Kommission

Geänderter Text

 

(7a) Alle einschlägigen künftigen delegierten Rechtsakte oder Durchführungsrechtsakte zu den in Anhang II Abschnitt B aufgeführten Verordnungen, mit denen die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme eingeführt werden, tragen den regulatorischen Besonderheiten der einzelnen Sektoren Rechnung und überschneiden sich nicht mit den bestehenden Governance-, Konformitätsbewertungs- und Durchsetzungsmechanismen und ‑behörden, die in den Verordnungen festgelegt sind.

Änderungsantrag  141

 

Vorschlag für eine Verordnung

Anhang I – Überschrift

 

Vorschlag der Kommission

Geänderter Text

TECHNIKEN UND KONZEPTE DER KÜNSTLICHEN INTELLIGENZ gemäß Artikel 3 Absatz 1

(Betrifft nicht die deutsche Fassung.)

Änderungsantrag  142

 

Vorschlag für eine Verordnung

Anhang III – Absatz 1 – Nummer 2 – Buchstabe a

 

Vorschlag der Kommission

Geänderter Text

a) KI-Systeme, die bestimmungsgemäß als Sicherheitskomponenten in der Verwaltung und im Betrieb des Straßenverkehrs sowie in der Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen;

a) KI-Systeme, die bestimmungsgemäß als Sicherheitskomponenten in der Verwaltung und im Betrieb des Straßenverkehrs sowie in der Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen und deren Ausfall oder Fehlfunktion unmittelbar zu einer erheblichen Schädigung der Gesundheit, der natürlichen Umwelt oder der Sicherheit natürlicher Personen führen würde, es sei denn, diese Systeme werden in Harmonisierungsrechtsvorschriften oder sektorspezifischen Rechtsvorschriften reguliert.

 


ANLAGE: VERZEICHNIS DER EINRICHTUNGEN UND PERSONEN, VON DENEN DIE VERFASSERIN DER STELLUNGNAHME BEITRÄGE ERHALTEN HAT

 BEUC

 ETF

 Google

 Amazon

 Airbus

 Hitachi

 GD MOVE

 GD CNECT

 EASA

 AMCHAM

 ACEA

 CLEPA

 Ericsson


 

VERFAHREN DES MITBERATENDEN AUSSCHUSSES

Titel

Harmonisierte Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und Änderung bestimmter Rechtsakte der Union

Bezugsdokumente – Verfahrensnummer

COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)

Federführende Ausschüsse

 Datum der Bekanntgabe im Plenum

IMCO

7.6.2021

LIBE

7.6.2021

 

 

Stellungnahme von

 Datum der Bekanntgabe im Plenum

TRAN

7.6.2021

Verfasser(in) der Stellungnahme

 Datum der Benennung

Josianne Cutajar

4.11.2021

Artikel 58 – Gemeinsames Ausschussverfahren

 Datum der Bekanntgabe im Plenum

 

 

16.12.2021

Prüfung im Ausschuss

20.4.2022

 

 

 

Datum der Annahme

12.7.2022

 

 

 

Ergebnis der Schlussabstimmung

+:

–:

0:

37

1

4

Zum Zeitpunkt der Schlussabstimmung anwesende Mitglieder

Magdalena Adamowicz, Andris Ameriks, Izaskun Bilbao Barandica, Karolin Braunsberger-Reinhold, Marco Campomenosi, Ciarán Cuffe, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Carlo Fidanza, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Bogusław Liberadzki, Peter Lundgren, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Cláudia Monteiro de Aguiar, Jan-Christoph Oetjen, Rovana Plumb, Dominique Riquet, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Petar Vitanov, Roberts Zīle, Kosma Złotowski

Zum Zeitpunkt der Schlussabstimmung anwesende Stellvertreter

Josianne Cutajar, Nicola Danti, Vlad Gheorghe, Roman Haider, Pär Holmgren, Guido Reil, Marianne Vind, Jörgen Warborn

Zum Zeitpunkt der Schlussabstimmung anwesende Stellv. (Art. 209 Abs. 7)

Susanna Ceccardi, Salvatore De Meo

 


 

NAMENTLICHE SCHLUSSABSTIMMUNG IM MITBERATENDEN AUSSCHUSS

37

+

ECR

Carlo Fidanza, Peter Lundgren, Roberts Zīle, Kosma Złotowski

PPE

Magdalena Adamowicz, Karolin Braunsberger‑Reinhold, Salvatore De Meo, Gheorghe Falcă, Jens Gieseke, Elżbieta Katarzyna Łukacijewska, Benoît Lutgen, Marian‑Jean Marinescu, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Jörgen Warborn,

RENEW

Izaskun Bilbao Barandica, Nicola Danti, Søren Gade, Vlad Gheorghe, Elsi Katainen, Jan‑Christoph Oetjen, Dominique Riquet

S&D

Andris Ameriks, Josianne Cutajar, Ismail Ertug, Isabel García Muñoz, Bogusław Liberadzki, Rovana Plumb, István Ujhelyi, Marianne Vind, Petar Vitanov

Verts/ALE

Ciarán Cuffe, Karima Delli, Anna Deparnay‑Grunenberg, Pär Holmgren, Tilly Metz

 

1

-

The Left

Kateřina Konečná

 

4

0

ID

Marco Campomenosi, Susanna Ceccardi, Roman Haider, Guido Reil

 

Erklärung der benutzten Zeichen:

+ : dafür

- : dagegen

0 : Enthaltung

 

 


VERFAHREN DES FEDERFÜHRENDEN AUSSCHUSSES

Titel

Harmonisierte Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und Änderung bestimmter Rechtsakte der Union

Bezugsdokumente – Verfahrensnummer

COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)

Datum der Übermittlung an das EP

22.4.2021

 

 

 

Federführende Ausschüsse

 Datum der Bekanntgabe im Plenum

IMCO

7.6.2021

LIBE

7.6.2021

 

 

Mitberatende Ausschüsse

 Datum der Bekanntgabe im Plenum

ENVI

7.6.2021

ITRE

7.6.2021

TRAN

7.6.2021

CULT

7.6.2021

 

JURI

7.6.2021

 

 

 

Assoziierte Ausschüsse

 Datum der Bekanntgabe im Plenum

CULT

16.12.2021

ITRE

16.12.2021

JURI

16.12.2021

 

Berichterstatter(in/innen)

 Datum der Benennung

Brando Benifei

1.12.2021

Dragoş Tudorache

1.12.2021

 

 

Artikel 58 – Gemeinsames Ausschuss¬verfahren

 Datum der Bekanntgabe im Plenum

 

 

16.12.2021

Prüfung im Ausschuss

25.1.2022

21.3.2022

11.5.2022

30.6.2022

 

26.10.2022

 

 

 

Datum der Annahme

11.5.2023

 

 

 

Ergebnis der Schlussabstimmung

+:

–:

0:

83

7

12

Zum Zeitpunkt der Schlussabstimmung anwesende Mitglieder

Magdalena Adamowicz, Alex Agius Saliba, Abir Al-Sahlani, Andrus Ansip, Katarina Barley, Pietro Bartolo, Alessandra Basso, Brando Benifei, Theresa Bielowski, Vladimír Bilčík, Malin Björk, Vasile Blaga, Biljana Borzan, Vlad-Marius Botoş, Patrick Breyer, Saskia Bricmont, Anna Cavazzini, Patricia Chagnon, Dita Charanzová, Deirdre Clune, David Cormand, Anna Júlia Donáth, Lena Düpont, Lucia Ďuriš Nicholsonová, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Alexandra Geese, Sandro Gozi, Sylvie Guillaume, Svenja Hahn, Krzysztof Hetman, Evin Incir, Sophia in ‘t Veld, Virginie Joron, Eugen Jurzyca, Marina Kaljurand, Fabienne Keller, Łukasz Kohut, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Moritz Körner, Alice Kuhnke, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Jeroen Lenaers, Juan Fernando López Aguilar, Morten Løkkegaard, Antonius Manders, Lukas Mandl, Erik Marquardt, Leszek Miller, Nadine Morano, Javier Moreno Sánchez, Anne-Sophie Pelletier, Paulo Rangel, René Repasi, Karlo Ressler, Diana Riba i Giner, Isabel Santos, Christel Schaldemose, Andreas Schwab, Birgit Sippel, Vincenzo Sofo, Tomislav Sokol, Ivan Štefanec, Annalisa Tardino, Tomas Tobé, Yana Toom, Milan Uhrík, Kim Van Sparrentak, Anders Vistisen, Marion Walsmann, Jadwiga Wiśniewska, Javier Zarzalejos

Zum Zeitpunkt der Schlussabstimmung anwesende Stellvertreter

Maria da Graça Carvalho, Pilar del Castillo Vera, Geoffroy Didier, José Gusmão, Katrin Langensiepen, Karen Melchior, Janina Ochojska, Jan-Christoph Oetjen, Tsvetelina Penkova, Rob Rooken, Róża Thun und Hohenstein, Isabella Tovaglieri, Dragoş Tudorache, Miguel Urbán Crespo, Petar Vitanov, Tomáš Zdechovský, Kosma Złotowski

Zum Zeitpunkt der Schlussabstimmung anwesende Stellv. (Art. 209 Abs. 7)

Pascal Arimont, Beatrice Covassi, Alicia Homs Ginel, Peter Jahr, Adam Jarubas, Camilla Laureti, Eva Maydell, Andrey Novakov

Datum der Einreichung

22.5.2023

 


NAMENTLICHE SCHLUSSABSTIMMUNG IM FEDERFÜHRENDEN AUSSCHUSS

83

+

ECR

Rob Rooken, Jadwiga Wiśniewska, Kosma Złotowski

ID

Patricia Chagnon, Jean-Paul Garraud, Virginie Joron, Jean-Lin Lacapelle

NI

Laura Ferrara, Milan Uhrík

PPE

Magdalena Adamowicz, Pascal Arimont, Vladimír Bilčík, Vasile Blaga, Maria da Graça Carvalho, Pilar del Castillo Vera, Deirdre Clune, Geoffroy Didier, Lena Düpont, Krzysztof Hetman, Peter Jahr, Adam Jarubas, Jeroen Lenaers, Antonius Manders, Lukas Mandl, Eva Maydell, Nadine Morano, Andrey Novakov, Janina Ochojska, Paulo Rangel, Karlo Ressler, Tomislav Sokol, Ivan Štefanec, Marion Walsmann, Javier Zarzalejos, Tomáš Zdechovský

Renew

Abir Al-Sahlani, Vlad-Marius Botoş, Anna Júlia Donáth, Lucia Ďuriš Nicholsonová, Sandro Gozi, Svenja Hahn, Sophia in 't Veld, Fabienne Keller, Moritz Körner, Karen Melchior, Jan-Christoph Oetjen, Róża Thun und Hohenstein, Yana Toom, Dragoş Tudorache

S&D

Alex Agius Saliba, Katarina Barley, Pietro Bartolo, Brando Benifei, Theresa Bielowski, Biljana Borzan, Beatrice Covassi, Sylvie Guillaume, Alicia Homs Ginel, Evin Incir, Marina Kaljurand, Łukasz Kohut, Camilla Laureti, Maria-Manuel Leitão-Marques, Juan Fernando López Aguilar, Leszek Miller, Javier Moreno Sánchez, Tsvetelina Penkova, René Repasi, Isabel Santos, Christel Schaldemose, Birgit Sippel, Petar Vitanov

Verts/ALE

Patrick Breyer, Saskia Bricmont, Anna Cavazzini, David Cormand, Alexandra Geese, Marcel Kolaja, Alice Kuhnke, Katrin Langensiepen, Erik Marquardt, Diana Riba i Giner, Kim Van Sparrentak

 

7

-

ECR

Eugen Jurzyca

PPE

Arba Kokalari, Tomas Tobé

The Left

Cornelia Ernst, Kateřina Konečná, Anne-Sophie Pelletier, Miguel Urbán Crespo

 

12

0

ECR

Vincenzo Sofo

ID

Alessandra Basso, Nicolaus Fest, Annalisa Tardino, Isabella Tovaglieri, Anders Vistisen

PPE

Andreas Schwab

Renew

Andrus Ansip, Dita Charanzová, Morten Løkkegaard

The Left

Malin Björk, José Gusmão

 

Erklärung der benutzten Zeichen:

+ : dafür

- : dagegen

0 : Enthaltung

 

Letzte Aktualisierung: 9. Juni 2023
Rechtlicher Hinweis - Datenschutzbestimmungen