Partager la publication "Haine en ligne : « Il faut plus de moyens pour modérer les plateformes »"
Pendant le premier confinement, les réseaux sociaux nous ont permis de garder le lien avec nos proches, de maintenir un semblant de vie normale. Ils sont aujourd’hui accusés de véhiculer la haine et faciliter le passage à l’acte de potentiels meurtriers.
L’assassinat de Samuel Paty le 16 octobre dernier résulte d’une suite d’événements qui “ont démarré sur les réseaux sociaux et se sont terminés sur les réseaux sociaux”, a pointé le porte-parole du gouvernement Gabriel Attal : de la publication sur Facebook d’une vidéo dénonçant le professeur d’histoire géographie à la publication sur Twitter d’une photo macabre de la victime par son bourreau.
Ces réseaux portent une “responsabilité”, a-t-il insisté, dans ce drame, qui remet sur la table la question de la régulation des contenus en ligne. On a ainsi entendu des politiques réclamer la fin de l’anonymat sur les réseaux sociaux ou le réexamen de la loi Avia – retoquée en juin par le Conseil Constitutionnel – qui prévoyait d’imposer aux plateformes l’obligation de supprimer sous 24h les contenus haineux qui leur seraient signalés.
Ces mesures sont-elles pertinentes face à des plateformes qui rassemblent 4 milliards d’utilisateurs par mois ? Réponse avec Célia Zolynski, juriste spécialisée en droit privé et sciences criminelles, et membre du Comité national pilote d’éthique du numérique.
- WE DEMAIN : Aujourd’hui, que prévoit la loi française pour encadrer les plateformes sociales comme Facebook ou Twitter ?
Célia Zolynski : Notre cadre principal est la loi pour la confiance en l’économie numérique de 2004, qui soumet les opérateurs techniques d’Internet, comme les hébergeurs, et donc les réseaux sociaux, à certaines obligations.
Ils sont par exemple tenus de retirer ou bloquer l’accès aux contenus de tiers manifestement illicites, ou considérés comme tels par un juge. En revanche, ils ne sont pas tenus à une obligation générale de surveillance des contenus circulant par le biais de leurs services.
La loi pour une République numérique d’octobre 2016 leur impose également une obligation de transparence et de loyauté vis-à-vis de leurs utilisateurs consommateurs, ce que l’on retrouve également dans la Loi Infox de 2018.
- Être hébergeur implique une certaine neutralité. Est-ce vraiment le cas ?
C’est tout le débat qui entoure aujourd’hui le Digital Service Act européen. Les algorithmes des réseaux sociaux amplifient-ils certains contenus ?
Nous sommes face à de véritables boîtes noires. Les grands réseaux sociaux sont des entreprises, il est dans leur intérêt de maintenir l’attention de leurs utilisateurs et générer le plus d’interactions possibles. Pour ce faire ils poussent les contenus qui génèrent le plus de réactions, comme les contenus choquants, les fake news, plus facilement relayées que les contenus de médias traditionnels, ou les informations qui confortent nos biais cognitifs.
La question est de savoir s’il faut soumettre ces plateformes à des obligations supplémentaires, comme la transparence du fonctionnement de leur système algorithmique par exemple.
- “C’est bien parce qu’il a été nommément désigné sur les réseaux sociaux que Samuel Paty a été assassiné », a affirmé Jean Castex devant les députés quelques jours après le drame de Conflans-Sainte-Honorine. Le Premier ministre a en outre annoncé la création prochaine d’un « délit de mise en danger par la publication de données personnelles » sur Internet. Est-ce une bonne chose ?
Cette annonce traduit notre besoin de ne pas rester inactif face à un acte aussi terrible. Elle est compréhensible. Mais en réalité, quand on regarde le cadre légal existant, cette nouvelle incrimination n’ajoute rien de vraiment nouveau. Le Code Pénal inclut déjà des dispositions relatives à la protection des données à caractère personnelles qui pourraient ici s’appliquer.
Il est difficile de bien qualifier les contenus partagés sur les réseaux sociaux. Si une publication est manifestement illicite, comme la photo d’une personne décapitée, les dispositions légales existent pour la sanctionner. En revanche, pour les propos qui ont précédé l’attentat de Conflans, beaucoup d’entre eux ne sont pas manifestement illicites et ne tombent donc pas sous le coup de la réglementation.
La diffusion de coordonnées personnelles nécessite qu’on la contextualise, qu’on identifie clairement l’objectif de porter atteinte à la vie privée de la personne.
- Finalement, la réponse juridique ne semble pas le meilleur moyen de combattre la haine en ligne…
Créer de nouvelles lois fait sens quand on fait face à un vide juridique. Prenons l’exemple du revenge porn : une disposition a été rajoutée dans la loi pour une République numérique, car auparavant le code pénal ne sanctionnait que la diffusion d’images prises sans le consentement de la personne. Or le revenge porn concerne justement des images prises avec le consentement de la personne, mais diffusées contre sa volonté.
Pour en revenir aux réseaux sociaux, il faut surtout les encourager à mieux réguler leurs contenus en y accordant davantage de moyens, sans passer par des outils de reconnaissance automatique ou semi-automatique. Et garantir la possibilité d’un droit de recours aux utilisateurs qui verraient leurs contenus injustement supprimés.
En aucun cas il ne faut confier aux seules plateformes le soin de juger quels types de contenus peuvent circuler sur leurs services. Je pense au projet de Facebook d’instaurer une “cour suprême” pour trancher des cas de modération. Cela relève des prérogatives d’un Etat.
- En France, la plateforme de signalement Pharos, en activité depuis 2009, mobilise une trentaine de fonctionnaires pour des milliers de signalements quotidiens. Plutôt que légiférer, ne faudrait-il pas allouer davantage de moyens aux solutions existantes ?
Nous avons trop délaissé les moyens humains en considérant que l’on pouvait déléguer ces pouvoirs aux plateformes. Garantir le respect de l’ordre public et de la liberté d’expression nécessite un effort substantiel. Il est essentiel de renforcer les moyens de Pharos et de garantir le rôle central du juge en tant que garant des libertés fondamentales. .
Il faut aussi s’interroger sur le statut et les conditions de travail des modérateurs des grandes plateformes, qui sont mal payés et confrontés à des contenus abjects à longueur de journée. Nous pourrions réfléchir à des règles de responsabilité sociale et environnementale supplémentaires pour les plateformes, afin que ces maillons essentiels soient mieux considérés.