EU – AI Act

Schwierige Zukunft für KI-„Lückentext“

Als eines der letzten großen Unterfangen vor der Wahl wurden Ende Mai die Regeln der EU für den Umgang mit und die Grenzen von künstlicher Intelligenz (KI) fixiert. Doch damit beginnen erst die Herausforderungen, wie auch Fachleute sagen. Europa ist gespalten zwischen der Wahrung der Grundrechte und dem Mithalten mit der Konkurrenz auf anderen Kontinenten, insbesondere den USA. Zweifel an den nun ausgearbeiteten Regeln haben Wirtschaft und Datenschützer gleichermaßen – auch an deren Zukunftssicherheit.

Geregelt ist jetzt, welche KI-Anwendungen mit besonders hohem Risiko verbunden sind – je gefährlicher das Einsatzgebiet, desto strenger die Regeln, lässt sich vereinfacht sagen. Ausnahmen gibt es aber für praktisch alle Risikokategorien, und viele Anwendungen, darunter etwa auch ChatGPT, müssen sich lediglich zur Transparenz verpflichten und das Urheberrecht einhalten. Wie das genau passieren soll und wer das letztlich durchsetzen soll, ist aber noch unklar.

2026 als entscheidendes Jahr für KI in Europa

Schlagend werden die meisten Regeln ohnehin erst 2026 – das wird die neue Kommission, egal, wie diese aussieht, wohl ordentlich beschäftigen. Denn die schnelle Entwicklung auf dem Gebiet der KI überholt die Regulierung, was mit ein Grund war, warum im Vorfeld so lange verhandelt wurde: Die Einführung von ChatGPT etwa krempelte den Diskurs noch einmal kräftig um.

Und auch die Umsetzung wird alles andere als einfach: „Die Herausforderungen für die Kommission beginnen erst mit dem Inkrafttreten. Allein die Harmonisierung und gleichartige Umsetzung in den so unterschiedlichen KI-Ökosystemen wird eine Mammutaufgabe, regulatorisch wie exekutiv“, sprich: den Regeltext auf die tatsächlichen Gegebenheiten und unterschiedlichen Anwendungsgebiete anzuwenden wird zur Hürde, so Mic Hirschbrich im Gespräch mit ORF.at.

Globaler Konkurrenzdruck

Der Digitalisierungsexperte und selbst Mitgründer des KI-Unternehmens Apollo.ai sieht dabei vor allem enorme Herausforderungen für die Mitgliedsländer, denn unklar sei, „woher die Ressourcen und Expertisen zur Durchsetzung und Überwachung der Regulierung kommen werden“. In jedem Mitgliedsland soll es laut „AI Act“ eine eigene für KI zuständige Behörde geben. Es werde „völliges fachliches Neuland betreten“, und das „bei sehr unterschiedlicher Aufstellung in den Mitgliedsstaaten“, sagt Hirschbrich.

Und gerade das könnte das Mithalten in der Branche erschweren, so die Befürchtung. Denn die EU hinkt beim KI-Thema China und den USA hinterher. Die KI-Regeln würden „viel Aufmerksamkeit und Kapital“ benötigen, so Hirschbrich, was dem Konkurrenzkampf nicht dienlich sei, denn: „Wir stehen in globaler Konkurrenz, nicht in regionaler und auch nicht nur in EU-weiter“, so der Unternehmer.

EU will mit Regelwerk nicht allein bleiben

Die EU hofft offenbar darauf, dass sie mit ihrem weitgreifenden Regelwerk weltweite Vorbildfunktion hat. Das erinnert an die Datenschutzgrundverordnung (DSGVO), die wohl am sichtbarsten dazu geführt hat, dass praktisch jede Website darüber aufklären muss, welche Cookies zum Einsatz kommen.

Doch mehr als beim Datenschutz hat die EU beim Thema KI wirtschaftliche Interessen, die hier Vorrang haben dürften – und fraglich ist, ob etwa die USA je dazu bereit sein werden, bei der Regulierung mitzuziehen. Das könnte letztlich dazu führen, dass die EU mit einem strengen Regelwerk dafür ganz allein dasteht – und Konzerne bevorzugt auf anderen Kontinenten entwickeln.

Doch der Spagat zwischen wirtschaftlichen Interessen und Wahrung der Grundrechte ist gerade auf diesem Gebiet alles andere als einfach. „Der ‚AI Act‘ muss vor der Beschädigung unserer Werte und Regeln schützen, aber darf uns nicht im Vorankommen hemmen“, fasst Hirschbrich die Erwartungen an das Regelwerk zusammen.

Warnung vor biometrischer Massenüberwachung

Während die Wirtschaft auf Innovation pocht und der „AI Act“ oft zu weit geht, pochen Aktivistinnen und Aktivisten auf den Datenschutz und die Wahrung der Grundrechte. Entsprechend geht ihnen der „AI Act“ oft nicht weit genug. Ella Jakubowska von European Digital Rights (EDRi) sagt gegenüber ORF.at, dass es „ein wichtiger Schritt“ gewesen sei, dass die EU Anwendungen anerkenne, „die zu schädlich sind, um in einer demokratischen Gesellschaft erlaubt zu sein“. Doch es gebe „viele Stellen, an denen der ‚AI Act‘ nicht weit genug geht, um unsere Rechte und Freiheiten zu schützen“.

Im Mittelpunkt der Kritik steht der Einsatz von KI für biometrische Anwendungszwecke – also etwa Gesichtserkennung. Diese ist zwar an sich verboten, Ausnahmen gibt es aber. „Das KI-Gesetz ist ein gefährlicher Schritt zur Legitimierung verschiedener biometrischer Massenüberwachungspraktiken“, so Jakubowska. Es gebe „Schlupflöcher“, die die Möglichkeit für „staatliche Überwachung“ schaffen, so die Expertin. Gleichzeitig obliege es etwa den Mitgliedsländern, „Gesichtserkennung durch die Polizei“ zu verbieten – eine Idee, die auch Österreich in Erwägung zieht, so die Aktivistin.

Auch die NGO AlgorithmWatch spricht sich dafür aus, dass die Mitgliedsstaaten Gesichtserkennung verbieten: „Wir empfehlen das vollständige Verbot der Gesichtserkennung allen Europäischen Staaten, denn diese Form der Beobachtung und Identifizierung verletzt gleich mehrere Grundrechte und hat in demokratischen Staaten nichts verloren“, so Kilian Vieth-Ditlmann gegenüber ORF.at.

Kritik an „Lückentextgesetz“

„Eines der größten Probleme bei der KI-Verordnung ist, dass es ein Lückentextgesetz ist: Es gibt zu viele Ausnahmen für Unternehmen und Behörden, sodass eine effektive Kontrolle von gesellschaftlichen Schäden von KI extrem schwer wird“, so Vieth-Ditlmann weiter. Er kritisiert auch den Einsatz von KI am Arbeitsplatz und im Bewerbungsprozess – und fordert „ein Transparenzregister und eine Grundrechtsfolgenabschätzung, die ihren Namen verdienen“, denn die von der EU vorgesehenen Maßnahmen würden „nicht klar“ genug ausformuliert.

Unklar ist, wie zukunftssicher der „AI Act“ nun überhaupt sein kann, angesichts der zahlreichen Kritikpunkte schon bevor er schlagend wird. Hirschbrich sieht im Hinblick auf den EU-Vorstoß „die Wichtigkeit in einer laufenden und flexiblen Weiterentwicklung“, die umso wichtiger sei, als führende Fachleute schon jetzt die nächsten ein bis zwei Jahre nicht vorhersehen können. Er gehe von „mehrfachen Anpassungserfordernissen“ aus – zumindest bei den Details.

KI wird für EU großes Thema bleiben

Pia Sombetzki von AlgorithmWatch sieht den „AI Act“ nicht weit genug gefasst: „Um wirklich sicherzugehen, dass heute und zukünftig alle sensiblen automatisierten Prozesse unter die Aufsicht der Verordnung fallen, müsste die Definition (von KI, Anm.) jedoch viel breiter gestaltet sein.“ Die Verordnung lasse „viele Schlupflöcher, um das Gesetz zu umgehen.“ Sie bringt auch ein Verbot für Verfahren anstatt Technologie ins Spiel: also etwa „ein vollständiges Verbot von automatisierter Emotionserkennung. Egal, welches System das macht, wir müssen uns fragen, ob wir so etwas überhaupt wollen.“

Ob der „AI Act“ in seiner derzeitigen Form die Wirtschaft ankurbeln kann und gleichzeitig ein strenges Regelwerk mit Blick auf die Grundrechte sein kann, wird sich frühestens 2026 deutlich zeigen. Aus heutiger Sicht ist aber noch gar nicht absehbar, zu welchem Zweck dann KI eingesetzt werden kann. Das Grundgerüst, in dem Innovation stattfinden soll, steht – offen bleibt, wie lange es angesichts der Fortschritte hält. Auf Brüssel wird auch nach der Wahl viel Arbeit beim Thema KI warten.