KI-Ethikcodex erwünscht
Künstliche Intelligenz besitzt keinen Funken Moral. Weder denkt oder fühlt sie, noch ist sie im menschlichen Sinne intelligent oder gar loyal. Im Missbrauch ihrer daten- und algorithmenbasierten Ergebnisse liegt ihr größtes Gefahrenpotenzial, schreibt der Sprachphilosoph Paul Sailer-Wlasits in einem Gastbeitrag (Standard). Er plädiert für einen rasch – von Menschen – zu schreibenden ethischen KI-Kodex.
Dem AI-Act, der KI-Verordnung der EU, mit ihrem Klassifikationsschema nach Risikoklassen der Anwendungszwecke, werden gegen Jahresende 2023 vermutlich sämtliche EU-Mitgliedsstaaten zustimmen. Dadurch tritt diese voraussichtlich 2026 EU-weit in Kraft. Um in der Zwischenzeit wirtschaftspolitisch nicht untätig zu sein, wird ein KI-Pakt vorangetrieben: ein internationales Abkommen zwischen Staaten, supranationalen und nationalen Institutionen sowie einigen der KI-Konzerne, um auf freiwilliger Basis ein Regelwerk für die kontrollierte Entwicklung von KI zu etablieren.
Paul Sailer-Wlasits ist Sprachphilosoph und Politikwissenschafter in Wien. Er ist Autor von „Minimale Moral. Streitschrift zu Politik, Gesellschaft und Sprache“ (2023, 2. Aufl.), „Lüge, Hass, Krieg. Traktat zur Diskursgeschichte eines Paktes“ (2022), „Verbalradikalismus. Kritische Geistesgeschichte eines soziopolitisch-sprachphilosophischen Phänomens“ (2021, 2. Aufl.) sowie „Uneigentlichkeit. Philosophische Besichtigungen zwischen Metapher, Zeugenschaft und Wahrsprechen“ (2020).
Während in der EU noch darüber debattiert wird, welche KI-Anwendungen höheren oder niedrigeren Risikoklassen zuzuordnen sind und, ob der AI-Act eher ein Wettbewerbsvor- oder -nachteil sein könnte, diskutieren führende globale Streitkräfte längst Anderes.
Zuordenbarkeit von Verantwortung löst sich auf
Derzeit werden etwa vonseiten der U.S. Air Force KI-gesteuerte Kampf- und Aufklärungsjets nicht erst erdacht oder konzipiert, sondern bereits an der Seite von menschlichen Kampfpiloten fliegend getestet. Die Reaktionsweisen der raketenbestückten KI-gesteuerten Jets, deren unerwartete plötzliche Wechsel in den Notfallsmodus sowie ähnliche kleinere und größere Fehler von Algorithmen werden analysiert. In fünf bis zehn Jahren sollen diese KI-Kampfjets voll einsatzfähig sein.
Als KI-Geschwader könnten sie beliebige Ziele oder Menschen mittels Zielprofilen selektieren, durch Sensordaten identifizieren, schließlich exekutieren, aus den gewonnenen Daten „lernen“ und die Algorithmen „verbessern“, d. h. im laufenden Betrieb selbsttätig verändern. Angesichts derartiger moralisch, politisch und kulturell völlig inakzeptabler, eines Tages an die KI-Algorithmen outgesourcter Tötungsentscheidungen droht sich fortan auch die Frage nach der Zuordenbarkeit von Verantwortung, insbesondere bei schweren Fehlern und Fehlentscheidungen, im unendlichen Geflecht digitaler Entscheidungsautonomie aufzulösen. Daran dürfte auch die geplante EU-Haftungsrichtlinie wenig ändern.
Aufgrund der weit vorangeschrittenen Entwicklungen im militärischen Bereich sowie dem Absolutheitsanspruch des Rentabilitätsdenkens bei den Big Tech KI-Konzernen und deren massivem politisch-wirtschaftlichem Lobbying existieren in den USA nur vage Ideen, Entwürfe, Weißbücher und Absichtserklärungen, jedoch keine konkreten Bestrebungen, in naher Zukunft vergleichbare KI-Gesetze wie die KI-Verordnung der EU vorzubereiten.
Die Fügsamen und das Dementi von Social Scoring
Ebenfalls zu erwarten ist, dass durch KI, wie bei jeder technologischen Revolution, die vertikale Segregation samt gesellschaftlicher Ungleichverteilung zunehmen wird. „No access“ wird allen jenen Menschen, die abseits des Mainstreams nach Wegen individueller Lebensführung suchen, immer öfter entgegenleuchten, denn die digitale Exklusion vollzieht sich lautlos. Bereits 2014 wurde in China damit begonnen, ein seit den 1990er Jahren geplantes Sozialkreditsystem elektronisch zu implementieren, in welchem Bewegungs-, Kommunikations- und politisch relevante Verhaltensdaten von Privatpersonen gespeichert, miteinander verknüpft und ausgewertet werden. Staatsbürger erhalten Punktekonten und mithilfe von KI-gestützter prädikativer Analytik könnten zukünftig sogar Verhaltensprognosen in Echtzeit erstellt werden.
Weniger gefügige Privatpersonen mit niedrigen Sozialkreditzahlen laufen Gefahr, auf Backlists zu kommen und im täglichen Leben mit Einschränkungen leben zu müssen. Mithilfe von KI könnte der digitale Überwachungsstaat bald totalitäre Realität werden, chinesische „Pilotstädte der Fügsamen“ existieren bereits. Hohe Sozialratings, d.h. hochgradig konformes, politisch erwünschtes Sozialverhalten wird mit rascherem beruflichem Vorankommen, Vergünstigungen und Erleichterungen belohnt.
Neben Russland dementieren zahlreiche weitere Staaten weltweit kategorisch, an digitalen Profilen, Social Scoring und anderen systematischen Verletzungen der Privatsphäre ihrer Staatsbürger zu arbeiten. Die menschliche Würde droht, obwohl in zahlreichen Verfassungen und Chartas ausdrücklich als unantastbar bezeichnet, durch KI-Missbrauch zu einem historisierenden, sozialromantischen Anspruch degradiert zu werden.
Ununterscheidbarkeit von wahr und falsch
Auch die beliebige, kontingente Gleichstellung wahrer und falscher Informationen beginnt schon heute, zu gravierenden individuellen und kollektiven Unsicherheiten zu führen. Da technologische Methoden bereitstehen, um mittels Sprache und Bildsprache Ununterscheidbarkeit zu generieren, könnten fortan wahre und nützliche von schädlichen oder nur bestimmten Partikularinteressen dienenden Informationen kaum mehr unterschieden werden. Ununterscheidbarkeit von wahr und falsch destabilisiert jedoch den Diskurs auf einer sehr tief liegenden sprachlichen Ebene, jener der Propositionen und deren Wahrheitswerten.
Dieser tiefe hermeneutische und semiologische Eingriff hat tektonische Spracherschütterungen zur Konsequenz. Lügen, Relativierungen und Manipulationen könnten fortan mittels KI „subkutan“ und mit atemberaubender Perfektion in Kommunikationsplattformen infiltriert werden. Relativierungen von wahr und falsch, etwa im Falle gesellschaftlich bedeutsamer Fragen, kämen somit zu den bereits bestehenden cleavages, den kritischen Bruchlinien in der Gesellschaft, als schwere Zusatzbelastungen hinzu.
KI-Sprachmodelle tendieren zu Mainstream
Während die Forschungen zu Künstlicher Intelligenz sowohl eine Vielzahl generischer Modelle als auch multimodale Ansätze verfolgen, stecken deren Teilentwicklungen wie Large Language Models (LLM) noch immer in den Kinderschuhen. Diese Modelle bewältigen zahlreiche Segmente digitaler Spracherkennung und -verarbeitung. Dazu zählen u.a. die Transformation von natürlicher Sprache in maschinell verarbeitbare Repräsentationen von Bedeutung sowie die Extraktion und Zuordnung semantischer Rollen von Textteilen.
Doch mithilfe autoregressiver Verfahren werden keine Texte erdacht oder verfasst, sondern es wird nach dem jeweils letzten errechneten Wort das statistisch am häufigsten bzw. am wahrscheinlichsten nachfolgende Wort wiedergeben. Kontextuelle KI-Sprachmodelle tendieren aufgrund dieser Logik mit Notwendigkeit zum verbalen Mainstream. KI errechnet, simuliert Sprache nur, wodurch die human-like-Antworten primär zur Wiedergabe erwartbarer Muster und Stereotype tendieren.
Bedenkt man, wer die treibenden Kräfte hinter Forschung, Entwicklung und Vermarktung sind, darf davon ausgegangen werden, dass KI in ihrem konzeptuellen Kern ein sprachliches „Massenwesen“ repräsentieren und aus ökonomischen Gründen zu „Boulevard“ sowie „Bestseller-Mentalität“ tendieren wird.
Profit vor Ethik
Ohne substanzielle ethische Rahmenbedingungen, d.h. ohne systematische Sprachethik, werden die Sprachmodelle und KI-Anwendungen große Teile der Gesellschaft so lange und derart durchdringend informationell versorgen und mit Fast-Food-Texten erbarmungslos geistig mangelernähren, bis die Konsumenten das vom „Gifthauch der KI“ umhüllte Wort als vertraut berührt. Bei entsprechender Skalierung und ausreichenden finanziellen Mitteln sowie der dazugehörigen Technologie in Form von Desinformations-Infrastruktur könnte dann der elektronische „Griff nach den Gehirnen“ erfolgen. Ausgang unbekannt.
Damit das unvermeidlich Scheinende nicht oder nicht zur Gänze und zu rasch eintritt, wäre ein ethischer Rahmen, etwa ein ethischer KI-Kodex, bereits während dieser ersten Entwicklungsstufen und zusätzlich zu den geplanten gesetzlichen Maßnahmen dringend vonnöten. Nicht als einmaliger ausgearbeiteter ethischer „KI-Katechismus“, sondern als verpflichtender, begleitender Prozess, der sämtliche Entwickler von KI-Modellen weltweit kontinuierlich dazu zwingt, die Zielsetzungen und möglichen gesellschaftlichen Auswirkungen der in Entwicklung befindlichen KI-Modelle nach ethischen Gesichtspunkten zu bewerten.
Eine kontinuierliche Bewertung im Sinne der Grundsätze normativer und angewandter Ethik hätte den Vorteil, dass auch die Bewertungskriterien gemeinsam mit der Entwicklung von KI wachsen, differenzierter und präziser werden könnten und sich nicht zu weit aus dem Schatten der KI-Modelle entfernten. Nur zu Beginn neuer KI-Entwicklungsphasen ist noch genügend Steuerungs- und Regulierungsmacht vorhanden. Während späterer Entwicklungsstadien nimmt die politische Steuerungs- und Regulierungsmacht tendenziell ab und gerät gegenüber global agierenden wirtschaftlichen Kräften ins Hintertreffen.
Gerade in diesem Kontext ist daher an das philosophische Vermächtnis von Emmanuel Lévinas zu erinnern, demzufolge wir alle Mitglieder einer Gesellschaft sind, die von dieser keine beschränkte, sondern unbeschränkte Verantwortung übertragen erhielten.
Paul Sailer-Wlasits