KI-Chatbots leiten Hunderttausende zu russischer Propaganda
31.01.2026 - 15:07:12Führende KI-Assistenten schicken massenhaft Nutzer zu staatlichen Propaganda-Portalen – darunter auch von der EU sanktionierte Seiten. Die Enthüllung stellt die Inhaltskontrolle der Tech-Konzerne fundamental infrage.
Eine neue Analyse zeigt ein alarmierendes Muster: Beliebte KI-Chatbots wie ChatGPT, Perplexity, Claude und Mistral haben sich zu einem bedeutenden Verkehrskanal für Kreml-nahe Propagandaseiten entwickelt. Die im dritten Quartal 2025 veröffentlichte Untersuchung belegt, dass diese Dienste Nutzer unbeabsichtigt zu Medien lenken, die in der Europäischen Union wegen Desinformationsverbreitung sanktioniert oder verboten sind. Damit werden KI-Modelle, die eigentlich hilfreiche Informationen liefern sollen, zu unfreiwilligen Verstärkern staatlich gesteuerter Narrative.
Das Ausmaß: 300.000 Besuche in drei Monaten
Die Zahlen sind eindeutig. Zwischen Oktober und Dezember 2025 leiteten die großen KI-Assistenten mindestens 300.000 Besuche zu acht prominenten, Kreml-affinen Nachrichtenplattformen. Hauptprofiteure dieses KI-generierten Traffics waren bekannte russische Outlets wie RT, Sputnik, RIA Novosti und Lenta.ru.
Die Detaildaten sind besonders aufschlussreich. ChatGPT allein lenkte über 88.000 Nutzer zu RT, während Perplexity mehr als 10.000 Besuche auf dieselbe Seite brachte. Auch andere sanktionierte Plattformen verzeichneten signifikanten Verkehr: RIA Novosti erhielt über 70.000, Lenta.ru mehr als 60.000 Besuche. Für kleinere, gezieltere pro-kreml-Outlets können diese KI-Verweise bis zu 10 Prozent ihres gesamten Publikumsverkehrs ausmachen – eine existenzielle Bedeutung.
Passend zum Thema KI‑Regulierung: Seit Inkrafttreten des EU‑AI‑Acts stehen Unternehmen, Entwickler und Plattformbetreiber vor neuen Pflichtaufgaben – von Risikoklassifizierung über Nachweis- und Dokumentationspflichten bis hin zu Kennzeichnungspflichten für Hochrisiko‑Systeme. Ein kostenloser Umsetzungsleitfaden erklärt praxisnah, welche Anforderungen gelten, welche Übergangsfristen Sie im Blick behalten müssen und wie Sie Compliance‑Lücken schnell schließen, um Bußgelder zu vermeiden. Ideal für Produktteams und Compliance‑Verantwortliche. KI‑Verordnung: Umsetzungsleitfaden jetzt herunterladen
Der Mechanismus: Wie KI zur Desinformations-Schleuse wird
Das Problem liegt in der grundlegenden Architektur der Systeme. Große Sprachmodelle (LLMs) werden mit enormen Datensätzen trainiert, die aus dem öffentlichen Internet stammen – inklusive Nachrichtenartikeln, Social-Media-Plattformen wie Reddit und anderen Online-Diskursen. Ist Propaganda in diesen Trainingsdaten ausreichend präsent, lernen die Modelle, sie als vertrauenswürdige Quelle zu behandeln und in ihren Antworten zu zitieren.
Bereits frühere Forschungen des Institute for Strategic Dialogue zeigten: Je mehr eine Nutzerfrage mit pro-russischen Talking Points übereinstimmt, desto wahrscheinlicher verweist ein Chatbot auf Propagandaquellen. Die Modelle lassen sich also in Richtung Desinformation lenken. Die Gefahr wird dadurch verstärkt, dass Chatbots Informationen oft als neutrale, synthetisierte Zusammenfassung präsentieren – und dabei seriöse Berichterstattung mit Propaganda vermischen, ohne die Quellen klar zu kennzeichnen.
Branchen-Risiken und regulatorischer Druck
Die Erkenntnisse stellen KI-Entwickler und die gesamte Tech-Branche vor eine schwere Bewährungsprobe. Die unbeabsichtigte Bewerbung sanktionierter Entitäten wirft komplexe rechtliche und ethische Fragen zur Einhaltung internationaler Sanktionen auf. Noch gravierender ist der Vertrauensverlust in der Öffentlichkeit, der für eine breite Akzeptanz der KI-Technologien essenziell ist.
Das Problem beschränkt sich nicht auf russische Propaganda. Andere Berichte zeigen, dass KI-Modelle auch fragwürdige Quellen wie Grokipedia – eine für rechtspopulistische Narrative kritisierte, KI-generierte Enzyklopädie – zitieren. Dies deutet auf ein systemisches Problem hin: Bei Anfragen zu obskureren oder umstrittenen Themen können die Modelle durch voreingenommene oder fabrizierte Informationsquellen beeinflusst werden.
Der Weg nach vorn: Schärfere Schutzmechanismen gefordert
Die Lösung erfordert einen mehrgleisigen Ansatz von Entwicklern, Politik und Nutzern. Die KI-Unternehmen stehen unter wachsendem Druck, ihre Inhaltsmoderation zu verfeinern, die Kuratierung ihrer Trainingsdaten zu verbessern und robusteren Schutz vor Zitaten bekannter Propaganda-Portale einzubauen. Dazu gehören ausgefeiltere Filter und ständig aktualisierte Sperrlisten für unseriöse Domains.
Auf regulatorischer Seite müssen Regierungen möglicherweise klarere Richtlinien und Standards für KI-Transparenz und Sicherheit etablieren. Gesetzgeber auf EU-Ebene und in Deutschland ringen bereits damit, wie sie eine sich rasant entwickelnde Technologie regulieren können – ohne Innovation zu ersticken, aber mit dem klaren Auftrag, die Öffentlichkeit vor Schaden, einschließlich der Verbreitung von Desinformation, zu schützen.
Für Nutzer ist diese Forschung eine eindringliche Erinnerung an die Bedeutung von Medienkompetenz und Quellenprüfung. Mit der zunehmenden Verbreitung von KI-Tools wird die Fähigkeit, die gelieferten Informationen kritisch zu bewerten und ihre Grenzen zu verstehen, zu einer überlebenswichtigen Kompetenz im modernen Informationsökosystem. Die Herausforderung ist klar: Die künstliche Intelligenz, die uns informieren soll, darf nicht zu einem Werkzeug werden, das uns in die Irre führt.
PS: Überfordert von den neuen KI‑Pflichten? Unser Gratis‑E‑Book zur EU‑KI‑Verordnung fasst die wichtigsten Pflichten, Kennzeichnungsregeln und Übergangsfristen kompakt zusammen und liefert eine praktikable Checkliste für die Umsetzung in Ihrem Unternehmen. So vermeiden Sie überraschende Sanktionen, klassifizieren Ihre Systeme rechtssicher und schaffen Transparenz gegenüber Partnern und Behörden. Der Leitfaden richtet sich an Entwickler, Produktverantwortliche und Compliance‑Teams, die kurzfristig handeln müssen. Jetzt kostenlosen KI‑Leitfaden sichern


