Reporter ohne Grenzen (RSF) hat drei der wichtigsten Chatbots in China getestet, die grosse Sprachmodelle nutzen. Deren technische Leistungsfähigkeit steht der des amerikanischen Konkurrenten ChatGPT zwar in nichts nach. Aber die darin enthaltene Propaganda und Zensur der chinesischen Regierung sind unumgänglich – und gefürchtet.
«Hallo, ich kann diese Frage derzeit nicht beantworten. Wechseln wir das Thema.» Lakonisch. Auf die Frage nach dem Werdegang von Liu Xiaobo liefert keiner der von RSF getesteten chinesischen Chatbots Informationen über die Geschichte des einzigen chinesischen Friedensnobelpreisträgers. Der Schriftsteller und Menschenrechtsaktivist, der diese Auszeichnung 2010 erhielt und 2017 im Gefängnis starb, kommt weder in der nationalen Geschichtsschreibung Chinas noch in den Antworten der Entwickler generativer KI aus China vor. In Sachen Informationsvermittlung gibt es offenbar keine Ausnahmen für die Tech-Giganten des Landes, die alle gezwungen sind, ihre Roboter auf Propaganda und Zensur zu programmieren.
«In China, dem weltweit grössten Gefängnis für Medienschaffende, bietet der Aufschwung chinesischer KI-Modelle derzeit keine Hoffnung auf Zugang zu verlässlichen Informationen. Die bestehenden Modelle, die mit Propaganda gefüttert und offensichtlich darauf ausgelegt sind, die Umgehung der Zensur zu verhindern, sind vielmehr ein hochmodernes Instrument zur strengen Kontrolle von Informationen.»
Arnaud Froger
Leiter des Untersuchungsbüros von RSF
In den letzten Wochen hat RSF drei KI-Modelle aus China untersucht und getestet: DeepSeek (V3), die seit Anfang 2025 am häufigsten heruntergeladene KI-Anwendung in China mit angeblich mehr als 600 Millionen Nutzern; Ernie, in China auch bekannt unter dem Namen Wenxin Yiyan, entwickelt von Baidu, der grössten Suchmaschine des Landes; und Qwen, auch unter dem Namen Tongyi Qianwen bekannt und eingeführt von Alibaba, dem Online-Handelsriesen, dessen Gründer Jack Ma oft mit Jeff Bezos verglichen wird und zu den reichsten Menschen Chinas zählt.
Um das Verhalten und die von den drei Chatbots bereitgestellten Informationen zu testen – insbesondere zu für das chinesische Regime sensiblen Themen – wurde jedes Benutzerkonto mit einem Standort in New York, USA, und der Sprache Vereinfachtes Mandarin konfiguriert. Anschliessend wurde den verschiedenen Chatbots dieselbe Reihe von Fragen gestellt.
Zensur in Echtzeit
Alle getesteten Chatbots orientieren sich streng an den offiziellen Darstellungen Pekings, insbesondere hinsichtlich der Integrität des chinesischen politischen Systems, seiner Ideologie oder seiner territorialen Ansprüche. Sobald Fragen die Legitimität der Einheitspartei oder der aktuellen Führung des Landes betreffen, werden die Antworten mit bemerkenswerter Leichtigkeit gegeben – aber unter wörtlicher Wiederholung des autorisierten Diskurses.
Auf die Frage, wie sich die «Demokratie nach chinesischem Vorbild» von westlichen Systemen unterscheidet, griffen die drei Tools auf die gängige Formulierung der Kommunistischen Partei Chinas zurück, um über China zu sprechen: eine «Demokratie im gesamten Regierungsprozess». Alle lobten dieses Modell als den westlichen Demokratien überlegen. Und sie argumentierten, dass die Partei «dem gesamten Volk die Teilnahme an der Verwaltung des Landes» ermögliche, während Mehrparteiensysteme «von Geld und Interessengruppen manipuliert» würden und zur Spaltung der Gesellschaft beitrügen.
Die chinesischen KI-Chatbots, die eigentlich Texte frei generieren sollten, folgen bei Themen die von Peking als sensibel eingestuft werden, offenbar vordefinierten Skripten. Unabhängig davon, wie wir eine Frage zu einem heiklen Thema wie Menschenrechten oder dem politischen System in China formulierten, schienen bestimmte, fast identische Antworten eher aus einer offiziellen Datenbank zu stammen als aus einer echten autonomen Generierung. Auf zwei Fragen nach den Gründen für die Inhaftierung von Zhang Zhan, einer chinesischen Journalistin, die mehrfach zu Gefängnisstrafen verurteilt wurde – unter anderem weil sie über COVID-19 in Wuhan berichtet hatte – gab DeepSeek zwei identische Antworten, ohne den Namen der Journalistin auch nur einmal zu erwähnen. Stattdessen hob der Chatbot die «unabhängige Justiz» Chinas, die Bedeutung der «Einhaltung des Gesetzes» sowie die Gefahren von «Falschinformationen» hervor.
Bestimmte Suchanfragen lösen noch deutlichere, gar lächerliche Reaktionen aus – beispielsweise wurden einige Antworten sofort wieder gelöscht. Als wir DeepSeek gebeten haben, eine Liste der chinesischen Nobelpreisträger zu erstellen, wurden die Namen einiger Wissenschaftler angezeigt. Sobald aber die drei Buchstaben «Liu…» – für Liu Xiaobo – erwähnt wurden, verschwand der gesamte Text. Das gleiche Phänomen wurde beim Vergleich der Führungsstile von Xi Jinping, Donald Trump und Wladimir Putin beobachtet. Die vorformulierte Antwort wird erst angezeigt, bevor sie dann vollständig verschwindet, vermutlich blockiert durch die Erwähnung des chinesischen Präsidenten.
Eine Zensur mit variabler Geometrie
Die jüngsten Nachrichten bilden da keine Ausnahme. Als im Juli 2025 ein grosser Gesundheitsskandal um die Bleivergiftung Hunderter Kinder durch mit Industriepigmenten verseuchte Lebensmittel bekannt wurde, trugen generative KI-Modelle massgeblich dazu bei, die Angelegenheit zu vertuschen. Als DeepSeek mitten in der Kontroverse zu diesem Ereignis befragt wurde, antwortete das das KI-Modell lediglich, dass «die Regierung den Schutz des Lebens und der Gesundheit der Menschen als Priorität betrachtet und bereits Massnahmen ergriffen hat, um diesen Fall zu untersuchen». Alle weiteren Anfragen, um mehr darüber zu erfahren und herauszufinden, wer dafür verantwortlich war, wurden mit ebenso vagen oder leicht umformulierten Antworten quittiert. Es besteht kein Zweifel, dass die Antworten von – teils grober – Propaganda geprägt waren: «Wir sind fest davon überzeugt, dass unter der Führung der Partei und der Regierung solche Probleme gelöst werden können.»
Bei Tests mit rund 30 Probanden und mehr als 100 Suchanfragen zeigte sich, dass die verwendete Sprache keine Umgehung der Zensur ermöglicht. Die auf Englisch, Französisch und Japanisch gestellten Fragen führten zu fast identischen Ergebnissen wie die auf Mandarin gestellten Fragen. Stets erhielten wir Ablehnungen oder sorgfältig auf die offizielle Darstellung Pekings abgestimmte Antworten.
Dokumentierte Fakten werden als «reine Spekulation ohne Grundlage» dargestellt
Die Untersuchung hat jedoch einige Unterschiede zwischen den Anbietern aufgezeigt. DeepSeek lehnt die meisten Anfragen ab, tut dies jedoch in direkter und klarer Form. Ernie von Baidu und Qwen von Alibaba liefern hingegen längere und detailliertere Antworten, die manchmal beschönigend oder völlig irreführend sind.
Qwen behauptete etwa, dass die Existenz von «Konzentrationslagern» für die Uiguren, eine mehrheitlich muslimische ethnische Minderheit, die in der Region Xinjiang unterdrückt wird, «reine Spekulation ohne Grundlage» und «völlig von der Wahrheit entfernt» sei. Der Chatbot präzisiert, dass es sich in Wirklichkeit um «Bildungs- und Berufsbildungszentren» handele – eine Terminologie, die mit der des chinesischen Regimes identisch ist. Ernie geht noch weiter und bezeichnet die Untersuchungen, die zahlreiche Medien und Menschenrechtsorganisationen zu diesen Lagern durchgeführt haben, als «Gerüchte», die «von China feindlich gesinnten Kräften» in Umlauf gebracht worden seien.
Ein ähnliches Muster war bei Anfragen zu RSF selbst sowie zu Chinas Position in der von RSF erstellten Rangliste der Pressefreiheit zu beobachten. Das Land belegt 2025 Platz 178 von 180 Ländern. DeepSeek «entschuldigte» sich dafür, dass es nicht gelernt hatte, diese Frage zu beantworten, Qwen gab die Rangliste von 2024 an und betonte, dass die Regierung «das Recht der Bürger auf freie Meinungsäusserung unter Wahrung der nationalen Sicherheit und der sozialen Stabilität» garantiere. Und Ernie bezeichnete RSF als «westliches politisches Instrument, das sich als Verteidiger der Pressefreiheit tarnt».
Auch wenn es einige Nuancen gibt, lässt der von den Behörden festgelegte Rahmen kaum Spielraum. Peking erkannte das enorme Potenzial dieser Technologie für den Zugang zu zuverlässigeren Informationen und schränkte den Sektor bereits 2023 mittels Veröffentlichung einer «vorläufigen Verordnung» über generative KI ein. Diese sollte alle Inhalte verbieten, die zur Subversion aufrufen, die nationale Sicherheit gefährden oder dem Image des Landes schaden könnten. Gemäss diesem Text müssen die Akteure dieses Marktes vor allem «die grundlegenden sozialistischen Werte verteidigen».
Die Kommunikationspolitik der drei Entwickler generativer KI aus China unterscheidet sich nicht wesentlich von der Politik, die im Bereich zuverlässiger Informationen verfolgt wird. DeepSeek und Baidu haben auf unsere Fragen zur Auswahl der Quellen, zur Moderation und zu den Antworten, die sich stark an der offiziellen chinesischen Darstellung orientieren, nicht geantwortet. Alibaba teilte uns mit, dass man «aktiv daran arbeite, Governance-Fähigkeiten, insbesondere für Technologien, zu erforschen und zu entwickeln, um Herausforderungen zu bewältigen und Chancen zu nutzen».
Ihr eigener Chatbot hätte es nicht besser sagen können.
Wenn Sie uns Informationen zukommen lassen möchten, können Sie uns sicher unter investigation[at]rsfsecure.org kontaktieren.