Toute L'Europe – Comprendre l'Europe

Haine en ligne : que fait l’Union européenne ?

Incitations à la haine, pédopornographie, apologie du terrorisme… les contenus haineux et illicites prolifèrent sur internet. Que dit aujourd'hui le droit en la matière ? Et que propose la législation sur les services numériques (Digital Services Act, ou DSA) pour le réformer ?

Harcèlement en ligne
Crédits : woocat / iStock

CE QUE VOUS ALLEZ APPRENDRE DANS CET ARTICLE 

La définition d’un contenu illicite diffère d’un Etat membre à l’autre. 

Les réseaux sociaux (Facebook, Instagram, WhatsApp…) et les autres hébergeurs de contenus (Google, YouTube…) ne sont pas responsables d’une vidéo, d’un texte ou d’un commentaire haineux postés sur leur plateforme… sauf s’ils en ont connaissance et qu’ils ne le retirent pas rapidement. 

Un projet de règlement européen, le DSA (législation sur les services numériques), prévoit d’harmoniser les obligations des plateformes sur ces contenus dans toute l’Europe. 

De la retransmission en direct de l’attentat de Christchurch à une vidéo d’extrême droite mimant le meurtre d’un militant de gauche, en passant par le cyberharcèlement de l’adolescente Mila, Internet offre aux contenus haineux et illicites une formidable caisse de résonance. 

Mais leurs auteurs, souvent difficiles à identifier, sont relativement peu sanctionnés. Et avant qu’un juge, une autorité policière ou la plateforme elle-même ne prennent la décision de retirer un tel contenu, celui-ci a souvent été partagé des milliers de fois, au détriment de leurs victimes.

Qu’est-ce qu’un contenu illicite ? 

Aujourd’hui, l’UE ne définit pas ce qu’est un contenu illicite : cette compétence relève de chaque Etat membre. En Allemagne ou au Danemark par exemple, le négationnisme n’est pas condamné. Au contraire de la France, “l’un des Etats les plus sévères en la matière”, rappelle Charlotte Denizeau, maître de conférences en droit public à l’université Paris-II. Toutefois, si “la définition de ce qu’est un contenu illicite […] dépend de l’appréciation de la liberté d’expression dans chaque Etat”, poursuit-elle, tous les pays européens répriment les écrits, vidéos, images ou sons faisant l’apologie du terrorisme ou à caractère pédopornographique.

En France, l’essentiel du droit en la matière dérive de la loi de 1881 sur la liberté de la presse. Il punit ainsi l’injure (raciale ou sexiste en particulier), la diffamation, l’incitation à la haine raciale ou à la violence (y compris sexuelle ou sexiste), le harcèlement, l’apologie du terrorisme, les atteintes au droit à l’image et à la vie privée, les atteintes à la dignité humaine, la diffusion d’images violentes ou pédophiles, ainsi que l’apologie, la négation ou la minimisation de crimes contre l’humanité

En revanche, c’est souvent au juge d’apprécier le caractère diffamatoire ou injurieux d’un propos. Il peut par exemple “estimer que l’auteur d’une injure a été provoqué par son interlocuteur ou qu’il a commis une erreur de bonne foi, sans intention de nuire”, note par exemple Maître Raphaël Liotier, avocat au cabinet Lexing Alain Bensoussan. Les cas de contenus litigieux sont ainsi nombreux. Enfin, et bien qu’elles suscitent la plus grande attention des Etats et de l’Union en raison de leur capacité de nuisance, les fausses informations ne sont pas nécessairement illégales. 

Comment ces contenus illicites sont-ils détectés ? 

Pour garantir le respect des libertés fondamentales, le droit européen interdit aux plateformes numériques de mettre en place une surveillance généralisée de ces contenus afin d’y repérer des activités illicites. Plusieurs Etats membres les obligent cependant, comme le permet le droit européen, à mettre en œuvre certaines mesures pour faciliter le signalement et l’identification des auteurs

En France comme ailleurs en Europe, les fournisseurs d’accès et les hébergeurs doivent ainsi prévoir un dispositif pour que toute personne puisse leur signaler sans difficulté les infractions d’apologie de crimes contre l’humanité, d’incitation à la haine raciale ou de pédopornographie. L’Etat a également mis en place une plateforme spécifique, Pharos, pour signaler les contenus suspects ou illicites qui sont alors rapidement traités par des policiers et gendarmes. Les plateformes ont par ailleurs l’obligation d’informer rapidement les autorités publiques d’activités illicites en ligne lorsqu’elles leur sont signalées, et de rendre publics les moyens qu’elles consacrent à la lutte contre les activités illicites. 

En mai 2016, un code de conduite sur la lutte contre les discours haineux illégaux en ligne a été lancé par la Commission européenne et plusieurs grandes plateformes (à commencer par Facebook, Microsoft, Twitter et YouTube). Les signataires se sont ainsi engagés à faciliter la notification des discours haineux illégaux par leurs utilisateurs et à coopérer en ce sens avec les organisations de la société civile et les autorités nationales.

Que devient un contenu illicite lorsqu’il est détecté ? 

Une personne s’estimant victime d’un contenu peut, dans tous les Etats membres, porter plainte. Si ce contenu est alors reconnu comme illicite par la police ou la justice, le site qui l’héberge peut être amené à devoir fournir des informations pour identifier son auteur (adresse IP, email de connexion…). Et celui-ci risque alors des sanctions. Le responsable d’un site peut également être mis en cause s’il autorise sciemment la publication d’un commentaire illicite.

Mais le droit européen impose également des obligations aux hébergeurs de contenus, parmi lesquels on compte les réseaux sociaux comme Facebook, YouTube ou Twitter. Avec l’essor du web participatif (et du commerce électronique) au tournant des années 2000, la directive européenne “e-commerce” a en effet instauré certaines règles spécifiques aux contenus en ligne. Les hébergeurs doivent ainsi retirer un contenu manifestement illicite (apologie du terrorisme, pédopornographie, négationnisme dans certains Etats membres…) dès qu’ils l’ont détecté. La directive précise que tout “prestataire de services intermédiaires” entrant en jeu dans la diffusion d’un tel contenu (dont les fournisseurs d’accès à internet ou les services de stockage en ligne) peut être tenu pour responsable dès qu’il a “connaissance de l’activité ou de l’information illicites” et n’agit pas “promptement pour retirer les informations ou rendre l’accès à celles-ci impossible”

Si cette disposition vaut pour les contenus les plus graves, le droit européen garantit en revanche la liberté d’expression en n’imposant pas le retrait de tous les contenus signalés. Dans le cas contraire, “les intermédiaires seraient contraints d’effectuer une veille de l’ensemble des contenus qu’ils mettent à disposition, et donc de censurer tout ce qui ne correspond pas à ce qu’ils pensent être le droit”, alerte Maître Liotier. A ce titre, une plateforme n’est donc pas responsable a priori des contenus qu’elle héberge et n’a pas à se faire juge en cas de contenu litigieux. Elle doit en revanche se conformer à la décision d’un juge qui lui demanderait de bloquer l’accès à un contenu ou à un site.

Un règlement européen adopté le 28 avril 2021 impose cependant aux plateformes de retirer ou bloquer les contenus à caractère terroriste “dans un délai d’une heure à compter de la réception de l’injonction de retrait” de la part d’un Etat membre. Dans le cas de la pédopornographie, les Etats s’étaient accordés en 2011 pour harmoniser et rendre plus sévères leurs législations, imposant notamment aux autorités nationales d’effacer le plus rapidement possible les images pédopornographiques des serveurs hébergés sur leur territoire. En juillet 2021, les institutions européennes ont adopté une mesure facilitant la détection, sur une base volontaire, des contenus pédopornographiques par les plateformes.

Dans un autre domaine, les contenus violant le droit d’auteur ont fait l’objet d’une longue bataille, avant d’aboutir en 2019 à une directive. Celle-ci impose aux plateformes diffusant des œuvres de non seulement rémunérer leurs auteurs mais aussi de détecter, si nécessaire au moyen d’un filtrage automatique, les contenus dont la publication ne respecterait pas leurs droits et de les retirer. 

Certains pays européens ont opté pour une responsabilisation accrue des plateformes en ligne. En Allemagne, la loi NetzDG impose depuis le 1er janvier 2018 aux hébergeurs de retirer en moins de 24 heures les contenus manifestement haineux sur les réseaux sociaux à but lucratif, sous peine de sanctions financières allant jusqu’à 50 millions d’euros. En France, la loi Avia a tenté d’imposer des dispositions similaires avant d’être majoritairement censurée par le Conseil constitutionnel en 2020. En 2021, une nouvelle loi facilite le blocage des “sites miroirs”, ces doublons créés par les sites véhiculant des contenus haineux après leur condamnation par la justice. 

Que prévoit la législation européenne sur les services numériques ?

Proposé en décembre 2020 par la Commission européenne, le règlement européen sur les services numériques (Digital Services Act, ou DSA) ambitionne d’être plus efficace dans la lutte contre les contenus illicites en ligne.

S’il ne vise toujours pas à donner de définition commune d’un contenu illicite (il s’agirait désormais de toute information “qui n’est pas conforme avec le droit de l’Union ou le droit d’un Etat membre”), il prévoit néanmoins d’harmoniser les obligations de toutes les plateformes qui proposent leurs services aux utilisateurs européens. Avec des dispositions spécifiques pour les plus importantes d’entre elles, qui comptent plus de 45 millions d’utilisateurs actifs chaque mois (soit 10 % de la population européenne). Ce critère soumettrait en particulier les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) à un régime plus sévère, avec des sanctions pouvant atteindre 6 % de leur chiffre d’affaires. 

Première évolution notable, le signalement et la suppression des contenus illicites seraient facilités par des procédures identiques dans tous les Etats membres. Les hébergeurs devraient proposer un outil simple pour signaler ces contenus illicites et, le cas échéant, les retirer ou en désactiver rapidement l’accès. La personne notifiant un contenu devrait fournir certaines informations (raisons de la notification, URL, identité et mail du notifiant…) et recevrait une confirmation de traitement : en l’état, le texte n’impose aucun délai mais l’hébergeur doit néanmoins traiter ces demandes en temps utile. Les plateformes auraient par ailleurs l’obligation de coopérer avec des “signaleurs de confiance”, organes, associations ou individus labellisés au sein de chaque Etat en vertu de leur expertise, et qui verraient leurs notifications traitées en priorité. 

Afin que tous les contenus proposés sur le continent puissent être couverts par le DSA, toutes les plateformes offrant des services aux Européens devraient désigner un représentant légal dans au moins l’un des Etats membres. Ce représentant serait chargé de répondre aux questions des autorités du pays où il se trouve, mais devrait également obéir à tout autre Etat membre qui lui demanderait de retirer un contenu illicite. Les plateformes seraient par ailleurs tenues d’alerter les autorités de l’Etat membre concerné lorsqu’elles prendraient connaissance d’une infraction mettant en danger la vie ou la sécurité des personnes.

En outre, un “coordinateur des services numériques” désigné par chaque Etat membre pourrait enquêter, sanctionner directement une plateforme ou saisir la justice lorsqu’il constaterait des irrégularités commises par l’une d’elles. Les 27 coordinateurs coopéreraient au sein d’un “Conseil européen des services numériques”, supervisé par la Commission européenne et qui pourrait par exemple mener des enquêtes conjointes dans plusieurs Etats membres.

Le règlement prévoit aussi plusieurs outils pour limiter la prolifération des contenus illicites. Il imposerait notamment aux plateformes de suspendre, pendant une période raisonnable et après avertissement, les comptes ayant diffusé des contenus manifestement illicites. Si l’interdiction de “surveillance généralisée” n’est pas remise en cause, les prestataires de services en ligne (à l’exception des plus petits) devraient cependant remettre des rapports indiquant, entre autres, le nombre de notifications et de plaintes reçues ainsi que les moyens (automatisés ou humains) qu’ils mettent en œuvre pour modérer les contenus. 

Les très grandes plateformes devraient compléter ces informations en analysant dans quelle mesure leur système de modération et de recommandation de contenus empêche réellement la diffusion de contenus illicites. Même chose au niveau des publicités, dont les plateformes doivent s’assurer qu’elles n’orientent pas les internautes vers des opinions haineuses ou discriminantes. De la même manière, les publicités ne doivent pas constituer une source de revenus et une incitation financière pour les producteurs de contenus illégaux. Une fois ces constats dressés, les plateformes devront ensuite prévoir des mesures pour optimiser leur politique. Le DSA énumère plusieurs options, qui vont de l’adaptation des systèmes de modération à la limitation des publicités ciblées, en passant par l’instauration de codes de conduite. Ces mesures seraient contrôlées lors d’un audit annuel. En outre, des protocoles spécifiques s’appliqueraient en cas de “crise” (catastrophe naturelle, pandémie, attaque terroriste…), pour limiter la diffusion massive de contenus illicites et de désinformation.

Enfin, plusieurs dispositions du DSA visent à contrebalancer ces obligations en garantissant le respect de la liberté d’expression. L’auteur d’un contenu jugé illicite devrait notamment être informé en cas de retrait ou de blocage. Outre le recours judiciaire, il pourrait contester gratuitement cette décision auprès de la plateforme. Si l’utilisateur obtenait finalement gain de cause, l’annulation du retrait et la republication de son contenu devraient intervenir sans retard.

Où en est le projet ? 

Le 25 novembre 2021, le Conseil de l’Union européenne a arrêté sa position (“orientations générales”) sur le projet de DSA. Les Vingt-Sept veulent notamment renforcer la protection des mineurs en ligne, ajouter des obligations pour les places de marché et les moteurs de recherche, ainsi que des règles plus strictes pour les très grandes plateformes. 

Le Parlement européen s’est prononcé le 20 janvier 2022 sur le texte. Il souhaite y ajouter un certain nombre d’éléments relatifs au respect des droits fondamentaux, à la publicité ciblée, à la lutte contre la désinformation ou encore aux exemptions pour les micro et petites entreprises. 

La France entend aboutir à un “accord provisoire” sur ce texte lors de sa présidence du Conseil, au premier semestre 2022. Tout comme sur l’autre texte phare en matière numérique, la législation sur les marchés numériques (DMA).

Votre avis compte : avez-vous trouvé ce que vous cherchiez dans cet article ?

Participez au débat et laissez un commentaire

Commentaires sur Haine en ligne : que fait l'Union européenne ?

Lire la charte de modération

Commenter l’article

Votre commentaire est vide

Votre nom est invalide