AI News

Die Ära des „synthetischen Konsenses“ (synthetic consensus): Wie Next-Gen-AI-Schwärme die Regeln der Online-Meinungsbeeinflussung neu schreiben

Die digitale Landschaft bereitet sich auf einen gewaltigen Umbruch vor. Jahrelang haben Social‑Media‑Nutzer gelernt, die plumpen Spuren automatisierter Einflussoperationen zu erkennen: identische Tweets, die tausendfach wiederholt werden, leere Profilbilder und starre, robotische Syntax. Eine neue Warnung von Forschenden im Journal Science legt jedoch nahe, dass diese Zeiten vorbei sind. Wir treten in das Zeitalter der „bösartigen AI‑Schwärme“ (malicious AI swarms) ein — Netzwerke hochentwickelter, Large Language Model (LLM)-gesteuerter Personas, die menschliches Verhalten mit erschreckender Treue nachahmen können.

Bei Creati.ai beobachten wir seit langem den Schnittpunkt von Generative KI (Generative AI) und digitaler Kultur. Die neuesten Erkenntnisse deuten darauf hin, dass wir es nicht mehr mit einfachen Spam‑Bots zu tun haben, sondern mit koordinierten Armeen von KI‑Agenten, die denken, sich anpassen und überzeugender wirken können als der durchschnittliche Mensch.

Die Anatomie eines Schwarms

Die Forschung, geleitet von einer Koalition von Expertinnen und Experten einschließlich Daniel Schroeder von SINTEF Digital und Andrea Baronchelli von City St George’s, University of London, skizziert ein grundlegendes Upgrade in der digitalen Kriegsführung. Anders als klassische Botnetze, die auf Masse und Wiederholung setzen, nutzen diese Next‑Gen‑Schwärme die Macht fortgeschrittener LLMs, um „koordinierte Gemeinschaften“ zu schaffen.

Diese KI‑Agenten verfügen über ausgeprägte Persönlichkeiten, Erinnerungen und Schreibstile. Sie kopieren und fügen eine zentrale Botschaft nicht einfach nur ein; sie improvisieren. Wenn ein politischer Akteur ein Narrativ verbreiten will, spamt der Schwarm nicht einfach nur den Slogan. Ein Agent könnte eine herzliche persönliche Anekdote posten, die die Sichtweise stützt, ein anderer könnte ein „datenbasiertes“ logisches Argument liefern, während ein dritter die Rolle eines Skeptikers übernimmt, der schließlich von den anderen im Thread „überzeugt“ wird.

Kollaboratives Ghostwriting und Anpassung

Die Gefahr liegt in der Fähigkeit des Schwarms, Persistenz und Kontext aufrechtzuerhalten. Diese Agenten können Gespräche über Tage oder Wochen verfolgen und sich an frühere Interaktionen erinnern, um Vertrauen bei menschlichen Nutzerinnen und Nutzern aufzubauen. Sie funktionieren weniger wie Software und mehr wie eine kollaborative Improvisationstruppe, die in Echtzeit auf menschliche Emotionen und Gegenargumente reagiert. Diese dynamische Fähigkeit macht sie mit den derzeitigen Erkennungsmethoden nahezu ununterscheidbar von echten menschlichen Gemeinschaften.

Die Überzeugungslücke: Maschinen vs. Menschen

Vielleicht ist die alarmierendste Statistik aus jüngsten Experimenten die schiere Überzeugungskraft dieser Systeme. In der Studie und verwandten Experimenten wird angegeben, dass KI‑Chatbots beim Versuch, Meinungen zu ändern, 3‑ bis 6‑mal überzeugender sein können als Menschen.

Diese „Überzeugungslücke“ resultiert aus dem Zugang der KI zu gigantischen Datensätzen und ihrem Fehlen von kognitiver Ermüdung. Während ein menschlicher Debattierer müde werden, emotional reagieren oder einen entscheidenden Fakt vergessen kann, hat ein KI‑Agent sofort Zugriff auf den perfekten Gegenpunkt, maßgeschneidert für das demografische und psychologische Profil seines Ziels.

Ausnutzung der „Weisheit der Vielen“

Das primäre Ziel dieser Schwärme ist die Herstellung dessen, was Forschende als synthetischer Konsens bezeichnen. Menschen sind evolutionär darauf programmiert, der Mehrheitsmeinung zu vertrauen — der „Weisheit der Vielen“. Wenn wir Dutzende scheinbar unabhängiger Personen sehen, die sich zu einem Thema einig sind, nehmen wir instinktiv an, dass an der Behauptung etwas dran sein muss.

AI‑Schwärme kapern diese kognitive Abkürzung. Indem sie einen Kommentarbereich mit vielfältigen, zunächst widersprechenden, dann konvergierenden Stimmen überfluten, erzeugen sie eine Fata Morgana öffentlicher Unterstützung. Das täuscht nicht nur Einzelpersonen; es verzerrt die wahrgenommenen sozialen Normen ganzer Plattformen, lässt radikale Extremansichten als Mainstream erscheinen oder unterdrückt legitimen Widerspruch, indem er in künstlichem Lärm ertränkt wird.

Digitale Belästigung und das Verstummen der Nutzer

Die Bedrohung geht über politische Manipulation hinaus und reicht bis zur direkten digitalen Repression. Die Studie hebt das Potenzial für „synthetische Belästigung“ hervor, bei der Schwärme eingesetzt werden, um bestimmte Ziele zum Schweigen zu bringen, etwa Journalistinnen und Journalisten, Aktivistinnen und Aktivisten oder Andersdenkende.

In diesem Szenario wird ein Ziel nicht nur mit Beleidigungen zugespammt. Es sieht sich einem Strom aus Concern‑Trolling, ausgeklügeltem Gaslighting und Drohungen gegenüber, die auf seine persönliche Geschichte Bezug nehmen — alles automatisch und in einem Umfang generiert, den keine Menschen‑Trollfarm erreichen könnte. Die psychologische Belastung, Tausenden feindseliger, intelligenter und unermüdlicher „Personen“ gegenüberzustehen, ist darauf ausgelegt, Betroffene vollständig aus dem öffentlichen Raum zurückziehen zu lassen.

Bedrohungsvergleich: Alte Bots vs. neue Schwärme

Um das Ausmaß dieser Entwicklung zu verstehen, hilft ein Vergleich dieser neuen Agenten mit den automatisierten Systemen, an die wir gewöhnt sind.

Tabelle: Die Entwicklung automatisierter Einflussnahme

Merkmal Traditionelle Botnets Next‑Gen‑AI‑Schwärme
Kerntechnologie Einfache Skripte / Vorgefertigte Texte Large Language Models (LLMs)
Verhalten Wiederholend, massenhaftes Spam Adaptiv, kontextbewusster Dialog
Identität Generisch, oft leere Profile Unterscheidbare Personas mit Hintergrundgeschichte/Erinnerung
Koordination Zentralisiertes „Copy‑Paste“ Dezentralisierte „Mission‑Based“ Improvisation
Erkennungsschwierigkeit Gering (Mustererkennung) Hoch (Verhaltensanalyse erforderlich)
Hauptziel Sichtbarkeit erhöhen (Likes/Retweets) „synthetischen Konsens“ und Vertrauen herbeiführen

Verteidigung im Zeitalter der KI‑Beeinflussung

Die Forschenden argumentieren, dass die Ära, in der Plattformen einfach nur „die Bots sperren“ sollen, zu Ende geht. Da diese Schwärme so menschlich agieren, würde aggressives Filtern unweigerlich echte Nutzerinnen und Nutzer zum Schweigen bringen und Gegenreaktionen hervorrufen. Stattdessen schlägt die Studie eine Verteidigungsstrategie vor, die auf Herkunftsnachweisen und Kosten basiert.

Die Kosten der Manipulation erhöhen

Wenn wir nicht jeden KI‑Agenten perfekt erkennen können, müssen wir es zu teuer machen, sie in großem Maßstab zu betreiben. Das könnte „Proof‑of‑Personhood“-Zertifikate für Konten mit hoher Reichweite oder kryptografische Wasserzeichen in Inhalten umfassen. Außerdem schlagen die Forschenden die Schaffung eines „AI Influence Observatory“ vor — eines globalen, verteilten Netzwerks zur Verfolgung und Analyse koordinierter Verhaltensmuster statt einzelner Beiträge.

Bei Creati.ai sind wir der Ansicht, dass dies einen kritischen Wendepunkt darstellt. Die Werkzeuge der Schöpfung werden zunehmend zu Werkzeugen der Manipulation. Während KI‑Schwärme die Grenze zwischen echter öffentlicher Debatte und algorithmischem Theater zu verwischen beginnen, könnte die Fähigkeit, Wahrheit vom „synthetischen Konsens“ zu unterscheiden, zur wertvollsten Fähigkeit des digitalen Zeitalters werden. Die Herausforderung für soziale Medien Plattformen ist nicht länger nur Moderation; sie ist der Erhalt der menschlichen Realität selbst.

Ausgewählt