09.09.2024

Der AI Act: Weltfremde Regulierung als Innovationsbremse

netzversteherFoto: netzversteher

Künstliche Intelligenz (KI) ist längst keine Zukunftsvision mehr, sondern prägt bereits heute die Wirtschaft in vielen Bereichen. Mehr als 60 Prozent der Unternehmen setzen KI nach Untersuchungen der DIHK ein oder planen dies in den nächsten drei Jahren – ein unübersehbares Signal, dass die Technologie eine zentrale Rolle in der digitalen Transformation spielt. Doch wo Chancen sind, sind auch Herausforderungen, und eine der größten Hürden ist die Bürokratie.

Künstliche Intelligenz: Bürokratische Hürden auf dem Weg zur Innovation

Die Europäische Union hat mit dem Artificial Intelligence Act (AI Act) einen neuen regulatorischen Rahmen geschaffen, der am 1. August in Kraft getreten ist. Die Mitgliedstaaten müssen nun diverse Maßnahmen umsetzen, darunter die Benennung nationaler Aufsichtsbehörden. In Deutschland soll dies bis zum 1. August 2025 geschehen.

Auf den ersten Blick mag der AI Act mit seinen Zielen, Standards zu schaffen und Rechtssicherheit zu gewährleisten, sinnvoll erscheinen. Doch wie so oft in Brüssel scheinen die Verantwortlichen wenig Bezug zur Realität der Unternehmen zu haben. Die wachsenden bürokratischen Auflagen, zusätzliche Berichtspflichten und die Gefahr des „Gold Plating“ – der übertriebenen Umsetzung von EU-Vorgaben – drohen, die Innovationskraft deutscher Unternehmen massiv zu bremsen.

Zersplitterung oder zentrale Aufsicht: Der DSGVO-Fehler droht

Die Gefahr einer zersplitterten und ineffizienten Aufsicht, wie sie bei der Datenschutzgrundverordnung (DSGVO) entstand, ist allgegenwärtig. Damals führte die Aufteilung auf 16 Landesbehörden zu einem Flickenteppich von Interpretationen und Umsetzungspraxen. Das Ergebnis: Unsicherheit und zusätzliche bürokratische Lasten für die Unternehmen. Um eine ähnliche Katastrophe beim AI Act zu verhindern, fordern wir eine bundesweit einheitliche KI-Aufsichtsbehörde – eine zentrale Anlaufstelle, die den Unternehmen Rechtssicherheit bietet und den Dschungel an Zuständigkeiten lichten könnte.

Es ist unstrittig, dass eine angemessene Kontrolle von KI-Technologien notwendig ist. Aber nicht jede KI-Anwendung birgt die gleichen Risiken. Der AI Act sieht eine Differenzierung nach Risikoklassen vor – ein Ansatz, der sich auch in der praktischen Aufsicht widerspiegeln muss. Risikoarme KI-Systeme dürfen nicht den gleichen bürokratischen Hürden ausgesetzt werden wie hochriskante Anwendungen in der Medizin oder im Finanzsektor.

Reallabore: Innovationsförderung darf kein Bürokratiedschungel werden

Ein potenzieller Lichtblick in der Regulierungsflut sind sogenannte Reallabore. Hier könnten Unternehmen neue KI-Technologien testen – wenn die Zugangshürden niedrig genug gehalten werden. Für kleine und mittlere Unternehmen (KMU) sowie Start-ups ist ein unbürokratischer Zugang entscheidend, um ihre Innovationskraft zu entfalten. Für die nationale KI-Aufsicht steht die Bundesnetzagentur (BNetzA) zur Debatte. Diese Behörde bringt bereits umfangreiche Erfahrung in der Regulierung komplexer Märkte wie Telekommunikation und Energie mit und könnte eine bundesweit einheitliche Anwendung des AI Acts sicherstellen.

Bürokratie erstickt Innovation

Der AI Act ist ein weiteres Beispiel dafür, wie weltfremde EU-Bürokraten mit überzogenen Regulierungen die Innovationskraft der Unternehmen abwürgen. Eine zentralisierte, risikobasierte Aufsicht und unbürokratische Reallabore könnten den Weg für eine balancegerechte Umsetzung ebnen – doch die Gefahr, dass Innovation im Dickicht der Bürokratie erstickt, bleibt real.