Sicherheitslücken bei KI-Herstellern

Kein „Sehr gut“ oder „Gut“ für Entwickler von Large Language Models

Eine neue Studie des Future of Life Institute (FLI) kommt also zur rechten Zeit. Der renommierte Think Tank, der sich mit den Auswirkungen neuer Technologien auf die Gesellschaft beschäftigt, hat gemeinsam mit hochkarätigen Experten wie dem Turing-Preisträger Yoshua Bengio die Sicherheitsstandards führender KI-Unternehmen untersucht. Das Ergebnis: Keines der geprüften Unternehmen erreicht auch nur ein „Befriedigend“ in Sachen Sicherheit.

Anthropic schneidet mit der Note C (2,13) noch am besten ab, gefolgt von Google DeepMind und OpenAI mit jeweils einem D+ (1,55 bzw. 1,32). Besonders besorgniserregend ist laut den Autoren, dass alle untersuchten Unternehmen offen die Entwicklung einer künstlichen allgemeinen Intelligenz (AGI) anstreben – also KI-Systemen, die dem Menschen ebenbürtig oder überlegen sein sollen. Die Experten halten die aktuellen Sicherheitsstrategien jedoch für völlig unzureichend, um solche Systeme unter menschlicher Kontrolle zu halten.

Anthropic, der Hersteller des Chatbots Claude, hebt sich positiv durch Transparenz und die Zusammenarbeit mit externen Prüfern ab. Auch bei der Robustheit gegen Hackerangriffe liegt das erst 2021 gegründete Unternehmen vorne. Google DeepMind punktet mit seinem „SynthID“-System zur Kennzeichnung KI-generierter Inhalte.

Kommerzielle Interessen

Das ursprünglich als gemeinnützige Organisation gestartete Unternehmen OpenAI hat nach der Umwandlung in ein profitorientiertes Unternehmen seinen Fokus verschoben. Die jüngste Entlassung von Sicherheitsteams deutet laut den Autoren auf eine problematische Priorisierung kommerzieller Interessen hin. Das chinesische Zhipu AI und Elon Musks x.AI landen mit den Noten D (1,11) und D- (0,75) auf den hinteren Plätzen.

Das Schlusslicht bildet Meta mit einem glatten F (0,65). Der Konzern hinter Facebook und Instagram veröffentlicht zwar transparent die Grundlagen seiner KI-Modelle – was die Experten aber als zweischneidiges Schwert sehen. Denn damit können auch potentiell gefährliche Versionen der Systeme leicht erstellt werden, heißt es im Bericht des FLI. Zudem habe die Unternehmensführung wiederholt Bedenken hinsichtlich existenzieller Risiken durch KI als übertrieben abgetan.

Profite über Sicherheit

Es gibt aber laut der Studie auch erste positive Ansätze: Alle sechs untersuchten Unternehmen haben die „Seoul Frontier AI Safety Commitments“ unterschrieben. Diese Verpflichtung, die beim AI Safety Summit in Seoul im November 2023 ins Leben gerufen wurde, sieht unter anderem vor, dass KI-Systeme vor ihrer Veröffentlichung auf Sicherheitsrisiken getestet werden müssen und Unternehmen sich zum Informationsaustausch über potenzielle Gefahren verpflichten. Anthropic gehe bereits mit gutem Beispiel voran und lässt seine Modelle von unabhängigen Instituten prüfen. Google wiederum entwickelt Technologien zum Nachweis von KI-generierten Inhalten.

Als Mindestanforderung müssten die Unternehmen die bereits unterzeichneten „Seoul Frontier AI Safety Commitments“ aber auch tatsächlich umsetzen, fordern die Fachleute. „Ohne strenge staatliche Regulierung werden die Unternehmen weiter Profite über Sicherheit stellen“, so das Fazit der Studie. „Die Gutachter haben jahrzehntelange Erfahrung in KI und Risikobewertung. Wenn sie vor den Gefahren warnen, sollten wir sehr genau hinhören“, mahnt FLI-Präsident Max Tegmark.