Alors que la propagation d’informations fausses ou manipulées en ligne n’a cessé de croître pendant l’épidémie de Covid-19, le Forum sur l’information et la démocratie publie son rapport « Pour mettre fin aux infodémies ». A partir d’une centaine de contributions d’experts internationaux, il met sur la table 250 recommandations pour endiguer un phénomène qui met en péril les démocraties et les droits humains, y compris le droit à la santé.

Le Forum sur l’information et la démocratie, créé en 2019 par onze organisations et centres de LIRE LE RAPPORTICIrecherches, avait lancé en juin dernier un groupe de travail sur les infodémies. L’objectif était de formuler un “cadre de régulation” des plateformes et des réseaux sociaux permettant de répondre au chaos informationnel. Après cinq mois de travail, ce groupe, dont le comité de pilotage est co-présidé par Maria Ressa et Marietje Schaake, publie un rapportcomplet, incluant 250 recommandations aux États et aux plateformes numériques.

Le rapport, rédigé par une équipe de rapporteurs sous la responsabilité de Delphine Halgand-Mishra, soulève quatre enjeux structurels et propose des solutions concrètes pour chacun d’entre eux :

  • la transparence des plateformes,
  • la modération des contenus,
  • la promotion de la fiabilité de l’information,
  • les messageries privées

De nombreux États de l’Alliance pour le multilatéralisme ont apporté leur soutien lorsque le président du Forum, Christophe Deloire, a présenté le groupe de travail lors d’une réunion de l’Alliance le 26 juin 2020, devant près de 50 ministres des Affaires étrangères et en présence du directeur général de l’Organisation mondiale de la santé (OMS), M. Tedros Adhanom Ghebreyesus et de la directrice générale de l’UNESCO, Mme Audrey Azoulay.

Le 12 novembre 2020, lors d’une nouvelle réunion de l’Alliance organisée dans le cadre du Forum de Paris pour la Paix, Christophe Deloire devait présenter le rapport du Forum sur l’information et la démocratie et les principales recommandations aux ministres des Affaires étrangères.

“Ce rapport est la preuve qu’une solution structurelle est possible pour mettre un terme au chaos informationnel qui représente un danger de mort pour nos démocraties, explique Christophe Deloire. Toutes les institutions qui prennent des initiatives législatives sur les plateformes ont intérêt à s’inspirer de ce rapport, qu’il s’agisse de l’Inde avec la Section 79, des États-Unis avec la Section 230, du Canada avec la Charte du numérique, du Royaume-Uni avec le Online Harms Bill, et naturellement de l’Union européenne avec le Digital Services Act.”

“Ce fut un honneur de travailler avec des experts de nombreuses disciplines – nous avons exactement besoin de cela aujourd’hui, déclare Maria Ressa, co-présidente du groupe de travail sur les infodémies. Ces temps montrent plus que jamais que l’information est synonyme de pouvoir, et lorsque les mensonges se répandent plus vite que les faits, toute entreprise humaine est menacée. Nous vivons un moment existentiel pour la démocratie et le journalisme. Ce rapport constitue un pas en avant concret pour trouver des solutions systémiques globales.”

“La démocratie est menacée par le manque de confiance et la manipulation pure et simple, qui ont une composante informationnelle, explique Marietje Schaake, également co-présidente du comité de pilotage du groupe de travail. La gouvernance de notre monde numérique doit être arrachée aux entreprises privées comme aux États autoritaires pour que la démocratie puisse survivre. Les dirigeants démocratiques doivent prendre leur responsabilité dès maintenant et préserver la démocratie, les droits humains et les libertés fondamentales.”

Lire aussi l’étude juridique réalisée par le secrétaire général de RSF Suisse Denis Masmejan sur mandat de l’Office fédéral de la communication “Débat public en ligne et protection des libertés de communication”.


 

Les 12 principales recommandations du groupe de travail

Une réglementation publique est nécessaire pour imposer des exigences de transparence aux fournisseurs de services en ligne.

  1. Les exigences de transparence doivent cibler les fonctions essentielles de toutes les plateformes dans l’écosystème de l’information publique : modération du contenu, classement du contenu, ciblage du contenu et renforcement de l’influence sociale.
  2. Les régulateurs chargés de faire respecter les exigences de transparence doivent disposer de solides processus de contrôle et d’audit démocratiques.
  3. Les sanctions en cas de non-conformité des plateformes pourraient inclure des amendes importantes, une publicité obligatoire sous forme de bannière, la responsabilité du PDG et des sanctions administratives telles que la fermeture de l’accès au marché d’un pays.

Un nouveau modèle de méta-régulation en matière de modération de contenu est nécessaire.

  1. Les plateformes doivent suivre un ensemble de principes des droits humains pour la modération de contenu fondés sur le droit international des droits humains : légalité, nécessité et proportionnalité, légitimité, égalité et non-discrimination.
  2. Les plateformes devraient assumer les mêmes types d’obligations en termes de pluralisme que les radiodiffuseurs dans les différentes juridictions où elles opèrent. Un exemple serait la voluntary fairness doctrine.
  3. Les plateformes doivent augmenter le nombre de modérateurs et dépenser un pourcentage minimal de leurs revenus pour améliorer la qualité de l’examen du contenu, et en particulier, dans les pays à risque.

De nouvelles approches de la conception des plateformes doivent être initiées.

  1. Les normes de sécurité et de qualité de l’architecture numérique et de la construction de logiciel devraient être appliquées par une agence d’application des normes numériques. Le Forum sur l’information et la démocratie pourrait lancer une étude de faisabilité sur le fonctionnement d’une telle agence.
  2. Les conflits d’intérêts des plateformes devraient être interdits, afin d’éviter que l’espace d’information et de communication ne soit régi ou influencé par des intérêts commerciaux, politiques ou autres.
  3. Un cadre de corégulation pour la promotion des contenus journalistiques d’intérêt public devrait être défini, sur la base de normes d’autorégulation telles que la Journalism Trust Initiative; de la friction doit être ajoutée pour ralentir la propagation du contenu viral potentiellement dangereux.

Des garanties doivent être établies dans les services de messagerie fermés lorsqu’ils entrent dans une logique d’espace public.

  1. Des mesures qui limitent la viralité des contenus trompeurs devraient être mises en œuvre par le biais de limitations de certaines fonctionnalités, de fonctionnalités d’acceptation pour recevoir des messages de groupe et de mesures pour lutter contre les messages de masse et les comportements automatisés.
  2. Les fournisseurs de services en ligne devraient être tenus de mieux informer les utilisateurs sur l’origine des messages qu’ils reçoivent, notamment en labellisant ceux qui ont été transférés.
  3. Les mécanismes de signalement des contenus illégaux par les utilisateurs et les mécanismes de recours pour les utilisateurs interdits d’accès aux services devraient être renforcés.

Partagez cet article !