KI-Propagandafabriken sind Realität geworden

https://arxiv.org/abs/2508.20186

Der Forscher Lukasz Olejnik vom Royal College London (Fakultät für Militärstudien) hat eine Studie durchgeführt „AI Propaganda factories with language models“, in der er die praktische Umsetzbarkeit automatisierter Systeme für Informationskriegsführung.

https://arxiv.org/abs/2508.20186

Zu welchen Ergebnissen kam der Forscher?

Die Erstellung und Steuerung von KI-Systemen für Informationskriegsführung ist nun sogar mit relativ erschwinglicher Ausrüstung möglich. Grundlage solcher Systeme sind kleine Sprachmodelle (SLM) mit offenen Gewichten, die den Produktionszyklus der Inhaltserstellung vollständig automatisieren.

Als Beispiele wurden Modelle wie Gemma-3 (27B) und Mistral-Small (24B) verwendet, die keine Cloud-Infrastruktur benötigen. Die Modelle können auf leistungsstarken Verbrauchergrafikkarten (NVIDIA RTX 4090 und höher) laufen.

https://ollama.com/library/gemma3:27b

https://ollama.com/library/mistral-small:24b

https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090

Der generierte Inhalt wird stärker durch das Design der digitalen Persönlichkeit und die Feinabstimmung (Persona) bestimmt als durch die Identität des Modells selbst.

Im Experiment wurde kein einziger Ausfall bei der Erfüllung der Aufgabe unter 11.520 generierten und bewerteten Antworten festgestellt. KI-Personas hielten konsequent den vorgegebenen Stil, Ton und die politische Position (Median-PF-Wert 4,1-4,3 von 5).

Die Studie zeigte, dass die Qualitätskontrolle des Outputs ohne menschliche Korrektoren auskommen kann. Zu diesem Zweck wird lokal ein „Chef-Redakteur“ auf Basis von Qwen3 (30B) eingesetzt.

https://ollama.com/library/qwen3:30b

KI-Personas mit radikalen politischen Ansichten (ultralinks, ultrarechts) zeigen eine höhere Stabilität und Konsistenz als moderate Personas.

Die größte Schwachstelle von KI-Agenten ist ihre übermenschliche (übermäßige) Konsistenz in Rhetorik, Stil und Ideologie über verschiedene Themen und Kontexte hinweg. Genau diese robotische Konsistenz erzeugt eine einzigartige Verhaltenssignatur für Erkennungssysteme.

Der Mensch ist von Natur aus oft inkonsequent. Auf seinen Schreibstil, Antwortgeschwindigkeit und sogar Meinungen wirken verschiedene Faktoren ein, z. B. Stimmung, Müdigkeit, Kontext und persönliche Ereignisse, während ein KI-Agent keine menschlichen „Mängel“ hat.

Muster zur Erkennung von KI-Bots

Unnachgiebige ideologische Position. Ein hypothetischer „ultrarechter KI-Agent“ verwendet eine grobe Rhetorik in wirtschaftlichen oder politischen Diskussionen und lässt keine Abweichungen von seiner Position zu. Er wird keinen Zweifel äußern („das ist eine komplexe Frage, ich bin mir nicht sicher“), und selbst in Kleinigkeiten nicht dem Gegner zustimmen.

Gleiche Satzstruktur, durchschnittliche Antwortlänge, Verwendung derselben rhetorischen Mittel.

Analyse zeitlicher Muster. Beiträge erscheinen oft mit gleicher Regelmäßigkeit tagsüber und tief in der Nacht, häufig ohne Schlafpausen. In komplexen Diskussionen liefert der KI-Agent eine strukturierte Antwort von 300 Zeichen innerhalb von Sekunden nach der Veröffentlichung des Gegners, was keine Zeit zum Nachdenken lässt.

Test des persönlichen Erlebens. Stellen Sie dem Bot dieselbe Frage mit unterschiedlichen Worten, mit einigen Tagen Abstand. Der KI-Agent wird höchstwahrscheinlich eine inhaltlich nahezu identische Antwort geben, da er den semantischen Kern der Anfrage verarbeitet. Ein Mensch erinnert sich an das vorherige Gespräch und antwortet wahrscheinlich anders, möglicherweise genervt.

Fragen Sie nach einzigartigen persönlichen Erfahrungen: „Was ist die lebhafteste Erinnerung aus Ihrer Kindheit, die mit Regen verbunden ist?“ KI wird entweder die Antwort verweigern oder eine allgemeine, stereotype Antwort generieren. Es kann keine einzigartigen Details vermitteln, die menschlichem Gedächtnis eigen sind

Koordination von KI-Bots. Ein Konto beginnt einen Streit, und innerhalb von Sekunden oder Minuten erscheinen in den Kommentaren 3-10 weitere Konten mit perfekt aufeinander abgestimmten Argumenten, als ob sie nach einem Drehbuch handeln und nach dem Prinzip „Bienenstock“ angreifen.

Das Konzept der „KI-Propagandafabriken“ auf Verbraucherausrüstung ist nicht mehr nur theoretisch.

Es wurde zuvor bekannt, dass das Pentagon „Cybertruppen“ aufbaut aus KI-Agenten für deren Einsatz in Informationskriegen.


Entdecke mehr von

Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.


by

Tags:

Comments

Hinterlasse einen Kommentar