Ein internationales Forschungsteam warnt vor einer neuen Generation digitaler Desinformation: Statt einfacher „Copy-and-Paste-Bots“ könnten künftig koordinierte „KI-Schwärme“ den öffentlichen Diskurs beeinflussen. Diese vernetzten Systeme aus künstlichen Identitäten könnten in Echtzeit reagieren, Gruppen infiltrieren und den Eindruck eines breiten gesellschaftlichen Konsenses erzeugen, wie die Forscher in der Fachzeitschrift „Science“ schreiben.
Von einfachen Bots zu koordinierten KI-Schwärmen
Forscher sehen das Internet an der Schwelle zu einer nächsten Stufe der Desinformation durch sogenannte „Künstliche Intelligenz“. Offensichtliche „Copy-and-Paste-Bots“ würden demnach vermutlich ersetzt durch koordinierte Gemeinschaften von „KI-Schwärmen“, so das internationale Forschungsteam, das seine Erkenntnisse in „Science“ veröffentlicht hat.
Gemeint seien KI-gesteuerte Flotten, die sich in Echtzeit anpassen, Gruppen infiltrieren und in großem Umfang einen Anschein von gemeinschaftlicher Meinung erwecken können. Ein Chor aus scheinbar unabhängigen Stimmen schaffe die Illusion eines breiten öffentlichen Konsenses, während er in Wirklichkeit Desinformation verbreitet.
Dabei würde es laut Analyse zu einer Verschmelzung von großen Sprachmodellen (LLMs) mit Multiagentensystemen zu „schädlichen KI-Schwärmen“ kommen, die soziale Dynamiken authentisch imitieren. Nach Ansicht der Forscher bedrohen sie den demokratischen Diskurs, indem sie falsche Tatsachen zementieren und Konsens suggerieren.
„Künstlicher Konsens“ als zentrale Gefahr
Das Forschungsteam hebt hervor, dass die zentrale Gefahr nicht nur in falschen Inhalten bestehe, sondern vor allem in einem „künstlichen Konsens“. Der falsche Eindruck, dass „ja jeder das sage“, könne Überzeugungen und Normen beeinflussen, selbst wenn einzelne Behauptungen umstritten sind. Dieser anhaltende Einfluss, so die Forscher, könne tiefgreifende kulturelle Veränderungen bewirken, die über Normenverschiebungen hinausgehen und die Sprache, Symbole und Identität einer Gemeinschaft auf subtile Weise verändern.
„Die Gefahr besteht nicht mehr nur in Fake News, sondern darin, dass die Grundlage des demokratischen Diskurses – unabhängige Stimmen – zusammenbricht, wenn ein einzelner Akteur Tausende von einzigartigen, KI-generierten Profilen kontrollieren kann“, sagte Jonas R. Kunst von der BI Norwegian Business School, einer der Hauptautoren des Science-Artikels, laut „Science“.
Darüber hinaus können KI-Schwärme nach Einschätzung der Forscher auch die Trainingsdaten von regulärer künstlicher Intelligenz verunreinigen, indem sie das Internet mit gefälschten Behauptungen überfluten. Auf diese Weise könnten sie ihren Einfluss auf etablierte KI-Plattformen ausweiten. Die Forscher warnen, dass diese Bedrohung nicht nur theoretisch ist: Analysen legten nahe, dass derartige Taktiken bereits angewendet werden.
Merkmale der Schwärme und geforderte Gegenmaßnahmen
Die Forscher definieren einen schädlichen KI-Schwarm als eine Gruppe von KI-gesteuerten Akteuren, die dauerhafte Identitäten bewahren und ein Gedächtnis haben, sich auf gemeinsame Ziele koordinieren und dabei Ton und Inhalt variieren. Sie passen sich in Echtzeit an Interaktionen und menschliche Reaktionen an, benötigen nur minimale Aufsicht durch Menschen und können plattformübergreifend eingesetzt werden. Im Vergleich zu früheren Bot-Netzen könnten solche Schwärme laut Studie schwieriger zu erkennen sein, da sie heterogene, kontextbezogene Inhalte generieren und sich dennoch in koordinierten Mustern bewegen.
„Über die Täuschungen oder die Sicherheit von einzelnen Chatbots hinaus müssen wir neue Gefahren erforschen, die sich aus der Interaktion von vielen KI-Akteuren ergeben“, sagte David Garcia, Professor an der Universität Konstanz und ebenfalls an der Untersuchung beteiligt, gegenüber „Science“.
Statt einzelne Beiträge zu moderieren, plädieren die Forscher für Schutzmaßnahmen, die koordiniertes Verhalten und die Herkunft der Inhalte verfolgen. Sie empfehlen, statistisch unwahrscheinliche Muster von Koordinierung aufzudecken, Verifizierungsoptionen unter Wahrung des Datenschutzes anzubieten und Hinweise auf KI-Einflussnahme über verteilte Beobachtungszentren weiterzugeben. Gleichzeitig sollten Anreize verringert werden, indem die Monetarisierung von gefälschten Interaktionen eingeschränkt und die Rechenschaftspflicht erhöht werden, so die Empfehlung der Forscher in „Science“.
Quelle: Mit Material der dts Nachrichtenagentur. ✨ durch KI bearbeitet, .