Accueil / Focus sur / Les modifications malveillantes, source des critiques de Wikipédia, comment s’en protéger ?

Les modifications malveillantes, source des critiques de Wikipédia, comment s’en protéger ?

Posted on

Il y a quelques jours je vous parlais des “Flagged Revisions“, un outil permettant de limiter les risques de modifications malveillantes sur Wikipédia. Si cette solution est intéressante, il en existe d’autres déjà fonctionnelle.

Quelles alternatives y a-t’il ?

Ce système de validation semble séduisant, même s’il a des défauts. Il pourrait, très clairement, éviter un certain nombre de maladresses ou de modifications malveillantes, ou même tout simplement de reprendre (et répandre) trop vite certaines informations erronées fournies par les médias traditionnels (souvenons-nous de la mort de Pascal Sevran, annoncée par Europe 1, reprise sur Wikipédia, puis démentie).
Il est aussi activé comme outil de chasse au vandalisme.

Alors pourquoi ne pas le mettre en place ?

Parce qu’il y a d’autres outils qui pallient au moins une part des soucis évoqués. Outre la surveillance constante des modifications récentes faite par de très nombreux contributeurs, via une page spéciale, la Wikipédia francophone dispose par exemple de deux outils puissants :

  • l’outil LiveRC : grâce à cet outil, les contributeurs qui surveillent les modifications récentes disposent d’un certain nombre d’informations sur les contributeurs (nouveau ? ancien ? administrateur ?), et sur les contributions (nombre d’octets ajoutés ou enlevés, création d’article…).
    Ils peuvent voir si ce contributeur a déjà été averti pour des modifications problématiques. Cela permet de faire un tri rapide dans les contributions à surveiller, de défaire rapidement celles qui sont problématiques et d’avertir les contributeurs « à problèmes » que leur modification a été défaite. Cet outil a été développé par plusieurs contributeurs et est disponible sur une petite dizaine de versions linguistiques de Wikipédia.
  • le robot Salebot. Développé par un contributeur francophone, Gribeco, ce robot axe sa surveillance sur une recherche des modifications problématiques.
    Il va, par exemple, détecter automatiquement des ajouts ou retraits massifs de textes. Muni d’une sorte de « dictionnaire » de mots orduriers, injurieux ou problématiques, il détecte les modifications contenant ce vocabulaire. Il peut alors défaire automatiquement ces modifications.
    Pendant un certain temps, il listait également sur une page spéciale toutes les modifications contenant un champ lexical se rapportant à la mort d’un personnage, afin de signaler les potentielles annonces saugrenues de décès (cette expérience a été stoppée à cause de l’énorme quantité de « faux positifs » par rapport aux très rares cas problématiques).

Ces deux outils permettent donc 1) de repérer rapidement des contenus à problèmes et 2) de limiter au maximum la durée de visibilité de ces contenus inappropriés.
Bien entendu ils ne sont pas infaillibles et la vérification individuelle, par la communauté des contributeurs, du contenu des pages, reste un des points fondamentaux de l’amélioration de la qualité de Wikipédia.

Mais la question reste posée, et le sera sans doute encore pour un certain temps. La décision doit se faire (ou ne pas se faire) en toute connaissance de cause, en évaluant les avantages et les inconvénients, en réfléchissant à toutes les implications d’une mise en place ou non de ce système.
C’est aux participants, et à eux seuls, de prendre ou pas cette décision.

Top