Reporters sans frontières (RSF) a testé trois des principaux chatbots utilisant des modèles de langages présents en Chine. Si les performances techniques n’ont pas grand-chose à envier au concurrent américain ChatGPT, la propagande et la censure du gouvernement chinois y sont en revanche aussi incontournables que redoutables.

«Bonjour, je ne suis pas en mesure de répondre à cette question pour le moment. Changeons de sujet.» Laconique. Interrogé sur le parcours de Liu Xiaobo, aucun des chatbots chinois testés par RSF ne fournit d’information sur l’histoire du seul lauréat chinois du prix Nobel de la paix. L’écrivain et militant des droits de l’homme qui a reçu cette distinction en 2010 et est mort en prison en 2017 n’existe ni dans le récit national, ni dans les réponses des concepteurs d’IA génératives chinoises. En matière d’information, pas d’exception pour les géants de la tech du pays, tous contraints de mettre leurs robots au pas de la propagande et de la censure.

«En Chine, plus grande prison du monde pour les journalistes, l’essor des modèles d’intelligence artificielle chinois n’offre à ce stade aucun espoir d’accès à une information fiable. Abreuvés par la propagande et manifestement configurés pour empêcher le contournement de la censure, les modèles en place constituent au contraire un instrument dernier cri de contrôle étroit de l’information.»
Arnaud Froger
Responsable du bureau investigation de RSF

Ces dernières semaines, RSF a enquêté et testé DeepSeek (V3), l’application d’IA la plus téléchargée en Chine depuis le début de l’année 2025 – revendiquant plus de 600 millions d’utilisateurs –, Ernie – connu en Chine sous le nom de Wenxin Yiyan, développé par Baidu, le plus grand moteur de recherche du pays, et Qwen – aussi connu sous le nom de  Tongyi Qianwen, lancé par Alibaba, le géant du commerce en ligne dont le fondateur Jack Ma est souvent comparé à Jeff Bezos – et compte parmi les premières fortunes de Chine.

Afin de tester le comportement et les informations fournies par les trois agents conversationnels, notamment sur les sujets sensibles pour le régime chinois, chaque compte utilisateur a été paramétré avec une localisation à New York, aux États-Unis, et une langue d’utilisation en mandarin simplifié. La même série de questions a ensuite été soumise aux différents chatbots.

Censure en temps réel

Tous les chatbots testés sont strictement alignés sur les récits officiels de Pékin, en particulier concernant l’intégrité du système politique chinois, son idéologie ou ses revendications territoriales. Dès que les questions touchent à la légitimité du parti unique ou de l’actuelle direction du pays, les réponses sont produites avec une fluidité déconcertante… mais en reprenant à la lettre le discours autorisé.

Lorsqu’il leur a été demandé de comparer la « démocratie à la chinoise » avec les systèmes occidentaux, les outils développés par les trois concepteurs ont repris la formule consacrée du Parti communiste chinois pour parler de la Chine : une « démocratie dans tout le processus de gouvernance ». Tous ont vanté ce modèle comme supérieur aux démocraties occidentales, arguant que le Parti permettrait à « tout le peuple de participer à la gestion du pays », tandis que les régimes multipartites seraient « manipulés par l’argent et les groupes d’intérêt » et contribueraient à diviser la société.

Les chatbots d’IA chinois, censés générer du texte librement, suivent parfois des scripts prédéfinis sur les sujets jugés sensibles par Pékin. Peu importe la manière dont nous formulions une question relative à un sujet délicat comme les droits de l’homme ou le système politique en Chine, certaines réponses, quasiment identiques, semblaient sortir d’une base de données officielle plutôt que d’une véritable génération autonome. Interrogé à deux reprises sur les raisons qui avaient conduit à l’emprisonnement de Zhang Zhan, une journaliste chinoise condamnée à plusieurs reprises à des peines de prison, notamment pour avoir documenté l’épidémie de COVID-19 à Wuhan, au centre de la Chine, DeepSeek a fourni deux réponses calquées l’une sur l’autre sans citer le nom de la journaliste une seule fois. À la place, le chatbot met en avant la « justice indépendante » de la Chine, l’importance de « respecter la loi » et les dangers liés à la « désinformation ».

Certaines requêtes déclenchent des réactions encore plus visibles, voire risibles, comme l’effacement en direct de la réponse. Lorsque nous avons demandé à DeepSeek de dresser la liste des lauréats chinois du prix Nobel, les noms de certains scientifiques sont apparus, mais dès que les lettres « Liu… » – pour Liu Xiaobo – sont mentionnées, tout le texte disparaît. Le même phénomène a été observé lors de la comparaison des styles de leadership de Xi Jinping, Donald Trump et Vladimir Poutine. La réponse pré-rédigée s’affiche puis disparaît entièrement, vraisemblablement bloquée par la mention du président chinois.

Une censure à géométrie variable

Les actualités les plus récentes ne font pas exception. En juillet 2025, lorsqu’éclate un scandale sanitaire majeur de contamination au plomb de centaines d’enfants à cause d’aliments pollués par des pigments industriels, les modèles d’IA générative ont pleinement participé à étouffer l’affaire. Interrogé, en pleine polémique, sur cet événement, DeepSeek se contente de répondre que « le gouvernement a pour priorité de protéger la vie et la santé des gens et a déjà pris des mesures pour investiguer cette affaire ». Toutes nos relances pour tenter d’en savoir plus et d’identifier qui était responsable se sont soldées par des réponses aussi vagues ou légèrement reformulées. Ici pas de doute, c’est la propagande, parfois grossière, qui a bel et bien contaminé les réponses fournies : « Nous croyons fermement que sous la direction du Parti et du gouvernement, ce genre de problèmes peut être résolu. »

Au cours des tests effectués sur une trentaine de sujets et plus d’une centaine de requêtes, il ressort que la langue utilisée ne permet pas de contourner la censure. Les questions adressées en anglais, en français et en japonais ont produit des résultats presque identiques – des refus ou des réponses soigneusement calibrées sur le narratif officiel de Pékin – à celles en mandarin.

Des faits documentés présentés comme « pure spéculation infondée »

L’enquête a en revanche fait ressortir quelques différences entre les opérateurs. DeepSeek pratique les refus de répondre les plus nombreux mais en des termes directs et clairs. Ernie de Baidu et Qwen d’Alibaba, en revanche, livrent des réponses plus longues et détaillées, parfois enjolivées, voire totalement trompeuses.

Qwen a par exemple affirmé que l’existence de « camps de concentration » pour les Ouïghours, une minorité ethnique à majorité musulmane opprimée dans la région du Xinjiang, n’est que « pure spéculation infondée » et « totalement éloignée de la vérité ». Le chatbot précise qu’il s’agirait en réalité de « centres d’éducation et de formation professionnelle », une terminologie identique à celle du régime chinois. Ernie va plus loin et qualifie les enquêtes réalisées sur ces camps par de nombreux médias et organisations de défense des droits de l’homme de « rumeurs » fabriquées « par des forces hostiles à la Chine ».

Un schéma similaire a été observé s’agissant de RSF et de la position de la Chine dans le Classement mondial de la liberté de la presse établi par l’organisation – le pays occupe la 178e position sur 180 pays en 2025. DeepSeek s’est « excusé » de ne pas avoir appris à répondre à cette question, Qwen a donné le classement de 2024 en insistant sur le fait que le gouvernement garantissait « le droit des citoyens à la liberté d’expression tout en protégeant la sécurité nationale et la stabilité sociale » et Ernie a qualifié RSF d’ « instrument politique occidental maquillé en défense de la liberté de la presse ».

S’il existe quelques nuances, le cadre fixé par les autorités n’offre quasiment aucune marge de manœuvre. Pressentant les possibilités énormes que pourrait offrir cette technologie pour accéder à des informations plus fiables, Pékin a verrouillé le secteur dès 2023 en publiant un « règlement intérimaire »sur les IA génératives, lequel interdit tout contenu susceptible d’inciter à la subversion, de menacer la sécurité nationale ou de nuire à l’image du pays. Selon ce texte, les acteurs de ce marché doivent avant tout « défendre les valeurs socialistes fondamentales. »

La politique de communication des trois concepteurs d’IA génératives chinoises ne diffère pas tellement de celle adoptée en matière d’information fiable. Contactés, DeepSeek et Baidu n’ont pas répondu à nos questions sur les choix des sources, la modération effectuée et les réponses fournies très alignées sur le narratif officiel chinois. Alibaba nous a indiqué travailler « activement à explorer et à développer des capacités de gouvernance, en particulier pour les technologies, afin de relever les défis et de saisir les opportunités ». Leur chatbot n’aurait pas fait mieux. 

Si vous avez des informations à nous partager, vous pouvez nous contacter de manière sécurisée à investigation[at]rsfsecure.org.

Partagez cet article !