Basierend auf den Entwürfen der EU-Kommission, des EU-Parlaments und des EU-Rats wird in dieser Studie untersucht, welchen Einfluss die Kriterien zur Risikoklassifizierung der KI-Verordnung auf KI-Innovationen in Unternehmen haben und welche Fragen geklärt werden müssen, um mehr Klarheit und Planungssicherheit zu schaffen. Dabei konzentriert sich die Studie explizit auf die Auslegung der Kriterien aus Praxissicht. Zum Zeitpunkt der Veröffentlichung dieser Studie (März 2023) sind die Verhandlungen in Brüssel noch nicht abgeschlossen, und wir hoffen, dass unsere Vorschläge für eine präzise Einordnung von den Verhandlungsführern aufgegriffen werden.
Wichtige Erkenntnisse:
18% der KI-Systeme fallen in die Hochrisikoklasse, 42% in die Niedrigrisikoklasse und bei 40% ist unklar, ob sie in die Hochrisikoklasse fallen oder nicht. Der Anteil der Hochrisikosysteme in dieser Stichprobe reicht also von 18 % bis 58 %. Eines der KI-Systeme könnte verboten werden.
Unklare Risikoeinstufungen bremsen Investitionen und Innovationen. Die Bereiche, in denen unklare Risikoeinstufungen vorgenommen werden, sind vor allem kritische Infrastruktur, Arbeitsplätze, Strafverfolgung und Produktsicherheit (Anhang II).
Die Untersuchung der Ursachen für die Unsicherheit endet mit konkreten Empfehlungen an politische Entscheidungsträger und Unternehmen zur Förderung verantwortungsvoller KI-Innovationen.
Autoren des Whitepapers
- Dr. Andreas Liebl, Geschäftsführer bei appliedAI
- Dr. Till Klein, Leiter des Bereichs Trustworthy AI bei appliedAI