KI-Sprachmodelle generieren Fake-News
Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.
Künstliche Intelligenz soll in Europa künftig in vier Bereiche eingeteilt werden – abhängig von dem Risiko, das von den KI-Systemen ausgeht. Das ist das Ziel des Europäischen Parlaments mit dem geplanten “AI Act“ – dem weltweit ersten umfassenden KI-Gesetz. Als besonders riskant gelten darin Gesichtserkennungssoftwares zur Echtzeitüberwachung der Bevölkerung – ihr Einsatz soll in Europa künftig komplett untersagt werden.
Wie gefährlich beliebte KI-Sprachmodelle wie Chat-GPT sind, ist hingegen weniger klar. Debattiert wird unter anderem das Risiko, dass sich mit Hilfe der künstlichen Intelligenz automatisch generierte Falschinformationen in der Bevölkerung verbreiten.
Studie untermauert Bedenken
Dass KI-Sprachmodelle durchaus dazu in der Lage sind, zeigen Schweizer Forscherinnen und Forscher in einer aktuell im Fachjournal „Science Advances“ präsentierten Studie. Das Team von der Universität Zürich wollte unter anderem klären, ob Menschen KI-generierte Texte auf Twitter als solche erkennen. Die fast 700 Probandinnen und Probanden waren nicht dazu in der Lage, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.
“Fake News“ wirken überzeugend
Das Team wollte außerdem klären, ob die Probandinnen und Probanden Falschinformationen in den Tweets erkennen – sowohl in den KI-generierten Texten als auch in jenen von realen Menschen. Die Tweets beinhalteten dabei Aussagen über den Klimawandel, die Sicherheit von Impfstoffen, die CoV-Pandemie, die Theorie, die Erde sei eine Scheibe, und homöopathische Behandlungen für Krebserkrankungen.