Accueil / Wikimédia France / Actualité Wikimédia France / Nos raisons de prendre part à l’Observatoire de la haine en ligne

Nos raisons de prendre part à l’Observatoire de la haine en ligne

Posted on

Wikimédia France s’est battue contre le projet de Loi « Avia » visant à lutter contre les contenus haineux sur internet, en déposant notamment des critiques devant le Conseil constitutionnel. Néanmoins, l’association a décidé de participer[1] à l’Observatoire de la haine en ligne sous l’égide du CSA, une des rares dispositions de la loi qui n’a pas été censurée. Voici pourquoi.

Parce que Wikipédia est une actrice importante du web

Wikipédia en langue française est consultée chaque mois par plus de 30 millions de personnes, ce qui en fait un des dix sites web les plus visités en France avec près de 460 millions de pages vues par mois.
 
La communauté wikipédienne est soumise aux problèmes de la haine en ligne, du harcèlement, de la diffamation et plus généralement de tous les comportements toxiques. À ce titre, il n’y a aucune raison que la vision wikipédienne du web et ses principes de modération des contenus ne soient pas représentés dans les instances qui réfléchissent aux régulations du monde numérique. Il nous paraît important de partager notre expérience et notre position originales sur le sujet de la haine en ligne.

Pour diffuser notre vision du web et partager notre modèle de modération

Tout le monde, ou presque, consulte les articles de Wikipédia, et la plupart des personnes pensent savoir ce qu’est Wikipédia. Le projet en lui-même est un exemple de réussite de l’intelligence collective mais en réalité, bien peu seraient capables d’en expliquer précisément les principes fondateurs et les règles de fonctionnement[2],[3],[4]. Expliquer comment Wikipédia réussit à modérer ses contenus est une des raisons de notre participation à l’Observatoire.
De plus, la structure de données totalement libres et ouvertes de Wikipédia, en offrant un corpus d’une dizaine de millions d’articles et de pages de discussions, accompagnés de leurs évolutions de version en version au cours du temps, est un formidable objet d’étude.
Les discussions avec toutes les parties prenantes de l’Observatoire pourraient ainsi être l’occasion d’analyser plus scientifiquement notre propre fonctionnement, de dépasser le simple constat de sa relative efficacité et de faire émerger des pistes de compréhension et d’amélioration.
D’autre part, réfléchir aux problématiques de la modération des contenus en ligne uniquement à partir des exemples des réseaux sociaux ou des plateformes de diffusion de vidéos, c’est prendre le risque d’une réflexion tronquée. À trop croire que le web est réduit à quelques acteurs, souvent pointés du doigt, on oublie que le web est divers et qu’il existe d’autres réalités, potentiellement riches d’enseignements. C’est pourquoi nous demandons une législation et des instances de régulation qui s’occupent autant des contenants que des contenus : il est clair pour nous que du point de vue de la propagation de la haine en ligne une plateforme de partage de contenus dont le modèle économique repose sur la publicité et la captation de l’attention des internautes ne peut pas être régulée de la même façon qu’un site web gratuit, sans publicité ni exploitation des données personnelles dont l’économie repose essentiellement sur le micro-don de la part de son lectorat. Par construction, les enjeux et les problématiques ne sont pas les mêmes. Ce sont ces différences que nous essaierons de rendre visibles et intelligibles au sein de l’Observatoire.

Pour défendre le pseudonymat et la modération citoyenne

Un exemple, parmi d’autres, des spécificités wikipédiennes est le rôle joué par la viralité. Souvent pointée comme un des problèmes, elle est pour le mouvement wikipédien une force : sur Wikipédia, plus un contenu est lu, plus la probabilité qu’il soit modéré est importante puisque la distinction entre lire et modérer un contenu ne tient qu’à un clic sur le bouton « modifier ». C’est une viralité positive, qui mène à une modération citoyenne, celle qui réussit quand le plus grand nombre est impliqué. Elle ne peut pas être analysée de la même façon que les phénomènes de meute ou de surexpositions de contenus toxiques observables ailleurs.

Une autre grande spécificité est celle du pseudonymat. Le système de modération humaine et bénévole de Wikipédia passe par cette possibilité centrale de ne pas révéler publiquement son identité. Nous essaierons d’expliquer pourquoi, en essayant de faire accepter que d’une façon générale s’exprimer sous pseudonyme est d’abord une protection des personnes : des wikipédiennes et wikipédiens ont choisi de ne pas révéler leur identité, par sécurité, car encore de nos jours il peut être dangereux d’écrire sur le chef de l’État, l’opposition, la géopolitique, la religion, les mœurs, les débats de société, etc. Les bénévoles de Wikipédia qui s’impliquent dans la modération s’exposent aussi aux représailles, car certains internautes n’acceptent pas de se retrouver bloqués ou bannis, ou de voir leur travail effacé. Il est arrivé que cela aille jusqu’au harcèlement en ligne ou que des employeurs soient contactés à la suite d’un différend. Connaître l’identité d’une personne qui modère un contenu, c’est un moyen de pression très important, très dangereux et qui dessert bien souvent les plus faibles. Suggérer que tout le monde s’exprime sous son identité civile, comme le proposent certains responsables politiques, est en fait tout simplement pernicieux[5].
 
Bien évidemment, les spécificités de Wikipédia ne sont pas forcément toutes exportables aux autres acteurs du web. Néanmoins, elles devraient inciter toutes les parties prenantes à éviter les discours faciles et uniformes : plutôt que la suspicion et la surveillance généralisée, et la vision conséquente de l’internaute a priori fauteur de trouble, nous militons pour la prise en compte et la mise en action d’une humanité qui, ultra-majoritairement, est positive dans ses intentions. Et nous souhaitons que les législations mises en place pour réguler l’espace numérique respectent les libertés fondamentales et tiennent compte de la diversité des acteurs.

Pour l’éducation à l’esprit critique et l’engagement des internautes

Enfin, un des groupes de travail de l’Observatoire de la haine ligne s’intéresse particulièrement à la prévention, à l’éducation et à l’accompagnement des publics. Wikimédia France souhaite là encore promouvoir l’exemple wikipédien. Le but premier de Wikipédia est d’apporter des savoirs mais il s’agit aussi d’un outil éducatif puissant[6]. Wikipédia permet le développement de l’esprit critique, par son système de renvoi aux sources, mais aussi et surtout en cassant la barrière entre lectorats passifs et actifs : la mise en situation d’agir plutôt que subir est un vecteur puissant de l’éducation aux médias. Cet aspect collaboratif permet en outre de développer une citoyenneté active par la prise de conscience que tout le monde peut prendre sa part dans la régulation de l’espace numérique et que personne ne devrait rester indifférent à un discours de haine.
  1. Clarifications : Wikimédia France, association à but non-lucratif de type loi 1901, n’est ni responsable, ni éditrice, ni hébergeuse des contenus de Wikipédia. La structure hébergeuse de Wikipédia, au sens de la LCEN, est la Wikimedia Foundation (WMF), organisation caritative américaine. En l’absence de personne ayant la possibilité de représenter officiellement WMF à l’Observatoire de la haine en ligne, c’est Wikimédia France qui y siège pour que les spécificités de Wikipédia, en tant que plateforme mettant des contenus à disposition des internautes, puissent être présentées. C’est la raison pour laquelle Wikimédia France siège dans le collège des « opérateurs » et non pas dans celui des « associations » qui regroupe plutôt des acteurs de l’étude et de la lutte contre la haine en ligne.
  2. Exemples

Pour aller plus loin sur cette thématique :

Top