Accueil / Politique et société / DSA : Nous avons un accord !

DSA : Nous avons un accord !

Posted on

Cet article est une traduction du texte rédigé par notre collègue Dimitar du Free Konwledge Advocacy Group EU basé à Bruxelles. Il est disponible en anglais sur le blog du KFAGEU et est disponible sous licence CC BY.

Les législateurs de l’Union européenne (UE) se sont alignés sur un accord politique visant à établir des règles générales de modération des contenus en ligne. Parmi les pierres angulaires de cet accord figurent un régime de notification et d’action, la surveillance par la Commission européenne des très grandes plateformes et certaines règles relatives aux conditions de service.

Accord politique sur le DSA : l'analyse wikimédienne de l'accord du trilogue.
Après l’accord politique, il reste à travailler sur certaines formulations techniques. L’accord devrait être voté au Parlement en juillet 2022. Nous avons précédemment comparé les trois positions du point de vue de la libre connaissance. Nous avons également analysé l’état des négociations en avril 2022. Voici une analyse de l’accord du trilogue, sur la base de ce que nous savons. 
Nous nous réjouissons qu’au cours des délibérations, les législateurs aient commencé à faire une distinction entre les règles créées et imposées par le fournisseur de services et les règles écrites et appliquées par les communautés d’éditeurs bénévoles.
D’autres garanties positives pour la liberté intellectuelle en ligne incluent l’interdiction de la publicité ciblée utilisant des informations sensibles et l’interdiction des « dark patterns » (modèles obscurs).
 
Nous regrettons que le « mécanisme de crise », une disposition permettant à la Commission européenne de demander aux très grandes plateformes de s’attaquer à certains contenus en ligne en temps de crise, ait été ajouté à la dernière minute, et n’ait pas fait l’objet d’un débat public approprié et que les garanties restent encore aujourd’hui, très vagues. 

1. Le processus de modération du contenu reconnaît-il les communautés d’utilisateurs ?

Comme nous l’avons répété de nombreuses au cours de l’élaboration du DSA, sur la plupart des plates-formes de connaissances libres, la modération du contenu, c’est-à-dire le fait de convenir de règles et de les imposer, est l’affaire des communautés d’éditeurs bénévoles. Et elles le font bien. Bien sûr, le fournisseur de services doit intervenir dans certains cas, comme le risque pour la vie et l’intégrité physique, le contenu illégal qui n’est pas retiré par la communauté ou l’injonction. 
 
Afin de ne pas imposer aux rédacteurs bénévoles les mêmes obligations qu’aux professionnels travaillant pour des plateformes en ligne, les définitions de certains termes tels que « modération de contenu » et « conditions de service » sont importantes. Bien que certains détails restent inconnus, il est évident que le DSA se concentrera uniquement sur la modération par le fournisseur de services et ceci est codifié dans les définitions de l’article 2. 
 
Les conditions de service des plateformes en ligne (quel que soit leur nom) doivent être claires et compréhensibles et un résumé des principaux éléments doit être fourni conformément à l’article 12. Ce même article oblige également les plateformes à faire respecter les restrictions qu’elles ont incluses dans leurs conditions de service – de manière proportionnée et diligente. Encore une fois, nous parlons ici d’obligations pour le fournisseur de services, et non pour les communautés d’éditeurs. Il est important de noter que cela n’empêche pas les rédacteurs bénévoles de s’occuper de l’espace en ligne. 

2. Comment fonctionne le pipeline de modération de contenu ?

Le principe selon lequel un fournisseur de services en ligne doit agir lorsqu’il est informé d’un contenu illégal est bien établi depuis plus d’une décennie. Toutefois, le moment et la manière d’agir étaient largement laissés à l’interprétation des plateformes et des tribunaux. Nous disposons désormais d’un processus solide que l’on peut qualifier de “pipeline de notifications”. 
 
La première étape consiste en ce qu’un utilisateur de la plateforme (qu’il s’agisse d’une personne ou d’une organisation) soumette un avis au prestataire de services. Le fournisseur de services doit alors vérifier avec diligence si l’avis porte réellement sur un contenu illicite ou incompatible avec les conditions de service. Ici, une clarification importante a été apportée au texte pour dire que toutes les notifications ne concernent pas un contenu illégal et ne déclenchent pas automatiquement une action. La décision appartient au fournisseur de services. C’est un point que nous avons défendu, car la majorité des notifications que reçoit la Fondation Wikimedia ne concernent pas un contenu incompatible avec la loi. 
 
L’utilisateur et le téléchargeur doivent être informés de la décision prise par le prestataire de services. Les deux parties seront autorisées à contester la décision dans le cadre d’un mécanisme interne de traitement des plaintes proposé par le fournisseur de la plateforme. Il s’agit essentiellement d’une étape qui garantit que l’avis est vérifié deux fois. 
 
Si les utilisateurs sont toujours en désaccord, ils peuvent faire appel à des organismes de « règlement extrajudiciaire des litiges ». Il s’agira de personnes ou d’organismes désignés par chaque État membre. Ils sont facultatifs. Il y a des limites à ce qu’ils peuvent coûter à chaque partie, mais ils seront payants afin d’éviter un trollage massif. 
 
Une autre garantie contre le trollage : les fournisseurs de services sont autorisés à ne pas tenir compte des avis provenant de certains notifiants s’ils fournissent de manière répétée des informations infidèles.  
 
La possibilité d’aller en justice reste bien entendu une possibilité dans le processus. 

3. Le mécanisme de réponse aux crises

Les législateurs européens ont décidé d’inclure un mécanisme de “réponse aux crises” dans les derniers rounds de négociations, à la suite de la guerre en Ukraine et de la pandémie de coronavirus. Il permettra à la Commission européenne de mandater de très grandes plateformes, dont Wikipédia, pour s’attaquer aux contenus qui mettent en danger la santé et la sécurité publiques. Nous regrettons qu’un pouvoir exécutif d’une telle portée ait été ajouté à la dernière étape sans véritable débat public et avec des formulations parfois très vagues. Il est difficile de dire ce qui constitue exactement une “crise” au sens de cet article. 
 
En revanche, avec d’autres groupes de la société civile, nous avons plaidé pour plusieurs garanties que nous avons tout de même obtenues sur ce sujet. La Commission ne pourra déclencher ce mécanisme que si une majorité de régulateurs nationaux (c’est-à-dire plus de la moitié des États membres) sont d’accord. La Commission ne sera pas en mesure de prescrire des actions spécifiques aux plateformes, mais plutôt de leur dire quel contenu est dangereux et d’exiger des actions. Ces actions peuvent aller du retrait à la modification du contenu en passant par la réduction de la visibilité. Toute demande de la Commission doit être rendue publique immédiatement et l’ensemble du mécanisme expire trois mois après son déclenchement. 

4. Supervision, obligations et coûts pour Wikipédia et ses projets frères

La surveillance réglementaire du DSA est répartie entre la Commission européenne et les régulateurs nationaux (appelés coordinateurs de services numériques). La Commission européenne sera responsable des très grandes plateformes en ligne (VLOP) et des obligations spécifiques qui leur incombent. Pour Wikimedia, cela signifie que Wikipedia sera réglementée par la Commission européenne, tandis que Wikimedia Commons et Wikidata relèveront probablement de la compétence d’un régulateur national si la Wikimedia Foundation décide de nommer un “représentant légal” pour le DSA. 
 
Dans le cadre des obligations spécifiques des VLOP, la Wikimedia Foundation effectuera des évaluations régulières des risques systémiques, tels que la désinformation, la disponibilité de contenus illégaux et le revenge porn. Elle sera également tenue d’élaborer des mesures d’atténuation des risques identifiés, qui seront soumises à des audits indépendants. Les autres obligations de cette catégorie ne s’appliquent tout simplement pas à Wikipédia, car les projets Wikimedia ne font pas de publicité et n’appliquent pas d’algorithmes de boosting pour modéliser ce que chaque utilisateur voit. 
 
Afin de mettre en place une nouvelle unité pour y faire face, la Commission européenne pourra imposer une redevance aux VLOP. Les organisations sans but lucratif qui gèrent des VLOP sont exemptées de cette redevance.

5. Garanties pour la liberté intellectuelle

Il y a plusieurs parties du DSA qui méritent d’être célébrées, bien qu’elles n’aient pas d’impact direct sur les projets Wikimedia et que le résultat final ne soit pas à la hauteur de nos attentes. 
 
L’Union européenne interdit la publicité ciblée basée sur les données des mineurs et sur les données sensibles telles que les préférences politiques, sexuelles ou religieuses. 
 
L’Union européenne interdit également une pratique appelée “dark patterns”. Il s’agit de modèles qui permettent aux utilisateurs d’accepter plus facilement que de refuser le suivi en ligne. À l’avenir, les deux choix devront être aussi faciles à faire l’un que l’autre. 

Les prochaines étapes

Après cet accord politique, les juristes et autres experts doivent travailler sur le plan technique pendant quelques semaines afin d’épurer le texte et de clarifier tous les détails encore sans réponse. Ensuite, le Conseil et le Parlement européen voteront cette version consolidée. Le Parlement s’attend à ce que le vote final ait lieu en juin. Une fois le règlement publié au Journal officiel de l’Union européenne, il entrera en vigueur 20 jours plus tard. Les plateformes en ligne disposeront de 15 mois supplémentaires après cette date pour se préparer jusqu’à ce que les règles commencent à s’appliquer. 

Je donne chaque mois

Recevez nos courriels

Abonnez-vous pour découvrir nos projets actuels et à venir.

Parlez à un être humain

Des questions sur notre association ou sur nos projets ? Contactez notre équipe.

Contact →

Nous suivre sur les réseaux sociaux
Crédits images
Sarah Krichen WMFr, CC BY-SA 4.0
Wikinade, CC BY-SA 4.0
Top