Logo Toute l'Europe

Haine en ligne et contenus illicites : que fait l'Europe ?

Incitations à la haine, pédopornographie, apologie du terrorisme… les contenus haineux et illicites en ligne prolifèrent sur internet. Comment l’Europe prévoit-elle de les réguler ?

Harcèlement en ligne
Crédits : woocat / iStock

CE QUE VOUS ALLEZ APPRENDRE DANS CET ARTICLE 

La définition d’un contenu illicite est différente d’un Etat membre à l’autre. 

Les réseaux sociaux (Facebook, Instagram, WhatsApp…) et les autres hébergeurs de contenus (Google, YouTube…) ne sont pas responsables d’une vidéo, d’un texte ou d’un commentaire haineux postés sur leur plateforme… sauf s’ils ont connaissance de ce contenu et qu’ils ne le retirent pas rapidement. 

Un projet de règlement européen prévoit d’harmoniser les obligations des plateformes sur ces contenus illicites dans toute l’Europe. 

De la retransmission en direct de l’attentat de Christchurch à une vidéo d’extrême droite mimant le meurtre d’un militant communiste en passant par le cyberharcèlement de l’adolescente Mila, Internet fourmille de publications et de commentaires haineux, généralement punis par la loi. 

Mais qu’ils agissent anonymement ou résident dans un autre pays, qu’ils n’aient pas conscience de leur faute ou se sentent tout simplement invulnérables, leurs auteurs sont relativement peu sanctionnés. Et avant qu’un juge, une autorité policière ou la plateforme elle-même ne prennent la décision de retirer un contenu illégal, celui-ci a souvent été partagé des milliers de fois, au détriment de leurs potentielles victimes. 

Accompagnant l’essor du web participatif et du commerce électronique au tournant des années 2000, l’Union européenne et ses Etats membres ont mis en place un certain nombre de règles spécifiques aux contenus en ligne. Et face à la prolifération de la haine sur Internet, ils projettent de franchir un pas supplémentaire. 

Qu’est-ce qu’un contenu illicite ? 

L’UE ne se prononce pas sur ce qu’est un contenu illicite : cette définition relève du droit pénal de chaque Etat membre. Les écrits, vidéos, images ou sons faisant l’apologie du terrorisme ou à caractère pédopornographique sont, par exemple, réprimés par la loi partout en Europe. Mais “la définition de ce qu’est un contenu illicite est extrêmement variable et dépend de l’appréciation de la liberté d’expression dans chaque Etat”, rappelle Charlotte Denizeau, maître de conférences en droit public à l’université Paris-II. Ainsi, “la France est l’un des Etats les plus sévères en la matière”, poursuit-elle, au contraire de pays comme l’Allemagne ou le Danemark, dans lesquels le négationnisme n’est par exemple pas réprimé. 

En France, l’essentiel des dispositions en vigueur dérivent de la loi de 1881 sur la liberté de la presse. Sont aujourd’hui punis l’injure (raciale ou sexiste en particulier), la diffamation, l’incitation à la haine raciale ou à la violence (y compris sexuelle ou sexiste), le harcèlement, l’apologie du terrorisme, les atteintes au droit à l’image et à la vie privée, les atteintes à la dignité humaine, la diffusion d’images violentes ou pédophiles, ainsi que l’apologie, la négation ou la minimisation de crimes contre l’humanité

Le caractère diffamatoire ou injurieux d’un propos est par ailleurs laissé à l’appréciation du juge. “En matière d’infractions de presse, certaines exceptions permettent d’exonérer de responsabilité l’auteur des propos. C’est le cas de l’excuse de provocation en matière d’injure [le juge peut estimer que l’auteur d’une injure a été provoqué par son interlocuteur] et des exceptions de bonne foi [une erreur commise sans intention de nuire] et de vérité [le fait d’avoir le droit de prouver la véracité de l’affirmation prétendument diffamatoire] en matière de diffamation”, note Maître Raphaël Liotier, avocat au cabinet Lexing Alain Bensoussan. Les cas de contenus litigieux sont ainsi nombreux. 

Enfin, et bien qu’elles suscitent la plus grande attention des Etats et de l’Union en raison de leur capacité de nuisance, les fausses informations ne sont pas, en tant que telles, illégales. 

Que se passe-t-il lorsqu’un contenu illicite en ligne est détecté ? 

En règle générale, une personne s’estimant victime d’un contenu peut porter plainte : si ce dernier est alors reconnu comme illicite par les services de police ou de justice d’un Etat membre, ceux-ci peuvent obliger le site qui l’héberge à fournir des informations (adresse IP, email de connexion…) pour identifier l’auteur du contenu, qui risque alors des sanctions. Le responsable d’un site peut également être mis en cause s’il autorise sciemment (en cas de modération a priori) la publication d’un commentaire illicite.

Les hébergeurs, au premier plan desquels se trouvent les plateformes de réseaux sociaux comme Facebook, YouTube ou Twitter, ont quant à eux l’obligation de retirer un contenu manifestement illicite dès qu’ils l’ont détecté. Cette règle, inscrite dans la directive européenne e-commerce de 2000, a été transposée en France par la loi pour la confiance dans l’économie numérique (LCEN) de 2004. Elle prévoit ainsi que l’hébergeur ou tout “prestataire de services intermédiaires” entrant en jeu dans la diffusion de ce contenu (dont les fournisseurs d’accès à internet ou les services de stockage en ligne) peut être tenu pour responsable dès qu’il a “connaissance de l’activité ou de l’information illicites” et n’agit pas “promptement pour retirer les informations ou rendre l’accès à celles-ci impossible”

Si cette disposition vaut pour les contenus manifestement illicites (apologie du terrorisme, pédopornographie, négationnisme dans certains Etats membres…), elle n’impose cependant pas le retrait de tout contenu dès qu’il est signalé. Le droit européen considère en effet, et c’est un principe qui guide l’essentiel de la régulation des contenus en ligne, qu’une plateforme numérique est un prestataire de services mais pas un éditeur. A ce titre, et pour garantir le respect de la liberté d’expression, elle n’est donc pas responsable a priori des contenus qu’elle héberge et n’a pas à se faire juge en cas de contenu litigieux. 

Dans le cas contraire, “les intermédiaires seraient contraints d’effectuer une veille de l’ensemble des contenus qu’ils mettent à disposition, et donc de censurer tout ce qui ne correspond pas à ce qu’ils pensent être le droit”, prévient Maître Liotier. En revanche, le blocage de l’accès au contenu, voire du site lui-même, peut être demandé par un juge, auquel cas la plateforme doit évidemment s’y conformer.

Certains pays ont opté pour une responsabilisation plus importante dans certains cas. En Allemagne, la loi NetzDG impose depuis le 1er janvier 2018 aux hébergeurs de retirer en moins de 24 heures les contenus manifestement haineux sur les réseaux sociaux à but lucratif, sous peine de sanctions financières allant jusqu’à 50 millions d’euros. La France a tenté de prendre des dispositions similaires avec la loi Avia, qui visait les incitations à la haine, les injures à caractère raciste ou anti-religieuses, ainsi que les contenus terroristes ou pédopornographiques – ces derniers auraient dû être retirés en moins d’une heure. Mais le texte a été majoritairement censuré par le Conseil constitutionnel en juin 2020.

Depuis, un règlement européen adopté le 28 avril 2021 impose cependant aux plateformes numériques de retirer ou bloquer les contenus à caractère terroriste “dans tous les États membres […] dans un délai d’une heure à compter de la réception de l’injonction de retrait” délivrée par “l’autorité compétente” de chaque Etat. Dans le cas de la pédopornographie, les Etats membres s’étaient accordés dès 2011 pour harmoniser et rendre plus sévères leurs législations, imposant notamment aux autorités nationales d’effacer le plus rapidement possible les images pédopornographiques des serveurs hébergés sur leur territoire.

Dans un autre domaine, les contenus violant le droit d’auteur ont fait l’objet d’une longue bataille, avant d’aboutir en 2019 à une directive. Celle-ci impose aux plateformes diffusant des œuvres de non seulement rémunérer leurs auteurs mais aussi de détecter, si nécessaire au moyen d’un filtrage automatique, les contenus dont la publication ne respecterait pas leurs droits et de les retirer. 

Que prévoient les Etats membres pour mieux détecter les contenus illicites ? 

Si les plateformes numériques ne sont pas responsables des informations qu’elles hébergent, le droit européen leur interdit même, toujours dans un souci de respect des libertés fondamentales, de mettre en place une “surveillance généralisée” de ces contenus afin d’y repérer des activités illicites. Plusieurs Etats membres les obligent cependant, comme le permet le droit européen, à mettre en œuvre certaines mesures pour faciliter le signalement et l’identification des auteurs

En France comme ailleurs en Europe, les fournisseurs d’accès et les hébergeurs doivent ainsi prévoir un dispositif pour que toute personne puisse leur signaler sans difficulté les infractions d’apologie de crimes contre l’humanité, d’incitation à la haine raciale ou de pédopornographie. L’Etat a également mis en place une plateforme spécifique, Pharos, pour signaler les contenus suspects ou illicites qui sont alors rapidement traités par des policiers et gendarmes. Les plateformes ont par ailleurs l’obligation d’informer rapidement les autorités publiques d’activités illicites en ligne lorsqu’elles leur sont signalées, et de rendre publics les moyens qu’elles consacrent à la lutte contre les activités illicites. 

En mai 2016, un code de conduite sur la lutte contre les discours haineux illégaux en ligne était lancé par la Commission européenne et plusieurs grandes plateformes (Facebook, Microsoft, Twitter et YouTube, rejointes ensuite par Instagram, Google+, Snapchat, Dailymotion, Jeuxvideo.com, TikTok et enfin LinkedIn). Les signataires se sont ainsi engagés à faciliter la notification des discours haineux illégaux par leurs utilisateurs et à coopérer en ce sens avec les organisations de la société civile et les autorités nationales. En 2020, l’exécutif européen estimait que grâce à ce code, les plateformes évaluaient 90 % des contenus signalés et supprimaient 71 % des contenus considérés comme illégaux en 24 heures, mais qu’elles devaient encore “améliorer la transparence et le retour d’information aux utilisateurs”.

Que prévoit l’Union européenne pour aller plus loin ? 

Proposé en décembre 2020 par la Commission européenne pour une adoption possible début 2022 – il entrerait alors aussitôt en vigueur -, le règlement européen sur les services numériques (Digital Services Act, ou DSA) ambitionne d’être plus efficace dans la lutte contre les contenus illicites en ligne.

S’il ne vise pas à donner une définition commune des contenus illicites (il s’agirait désormais de toute information “qui n’est pas conforme avec le droit de l’Union ou le droit d’un Etat membre”), il prévoit néanmoins d’harmoniser les obligations de toutes les plateformes qui proposent leurs services aux utilisateurs européens, avec des dispositions spécifiques pour les plus importantes d’entre elles, qualifiées d’ ”acteurs systémiques”. Ces “très grandes plateformes” sont définies par le projet de règlement comme comptant plus de 45 millions d’utilisateurs actifs chaque mois (soit 10 % de la population européenne). Un critère qui soumettrait en particulier les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) à un régime plus sévère, avec des sanctions pouvant atteindre 6 % de leur chiffre d’affaires. 

Première évolution notable, le signalement et la suppression des contenus illicites pourraient être facilités par des procédures identiques dans tous les Etats membres. Les hébergeurs devraient proposer un outil simple pour signaler ces contenus illicites et, le cas échéant, les retirer ou en désactiver rapidement l’accès. La personne notifiant un contenu devrait fournir certaines informations (raisons de la notification, URL, identité et mail du notifiant…) et recevrait une confirmation de traitement : en l’état, le texte n’impose aucun délai mais l’hébergeur devra néanmoins traiter ces demandes en temps utile. Les plateformes auraient par ailleurs l’obligation de coopérer avec des “signaleurs de confiance”, organes, associations ou individus labellisés au sein de chaque Etat en vertu de leur expertise, et qui verraient leurs notifications traitées en priorité. 

Afin que tous les contenus proposés sur le continent puissent être couverts par le DSA, toutes les plateformes offrant des services aux Européens devraient désigner un représentant légal dans au moins l’un des Etats membres. Ce représentant serait chargé de répondre aux questions des autorités du pays où il se trouve, mais devrait également obéir à tout autre Etat membre qui lui demanderait de retirer un contenu illicite. Les plateformes seraient par ailleurs tenues d’alerter les autorités de l’État membre concerné lorsqu’elles prendraient connaissance d’une infraction mettant en danger la vie ou la sécurité des personnes.

En outre, un “coordinateur des services numériques” désigné par chaque Etat membre pourrait enquêter, sanctionner directement une plateforme ou saisir la justice lorsqu’il constaterait des irrégularités commises par l’une d’elles. Les 27 coordinateurs coopéreraient au sein d’un “Conseil européen des services numériques”, supervisé par la Commission européenne et qui pourrait par exemple mener des enquêtes conjointes dans plusieurs Etats membres.

Comment le DSA veut-il réduire le nombre de contenus illicites en ligne et garantir la liberté d’expression ? 

Le règlement prévoit aussi plusieurs outils pour limiter la prolifération des contenus illicites. Il imposerait notamment aux plateformes de suspendre, pendant une période raisonnable et après avertissement, les comptes ayant diffusé des contenus manifestement illicites. Si l’interdiction de “surveillance généralisée” n’est pas remise en cause, les prestataires de services en ligne (à l’exception des plus petits) devraient cependant remettre des rapports indiquant, entre autres, le nombre de notification et de plaintes reçues ainsi que les moyens (automatisés ou humains) qu’ils mettent en œuvre pour modérer les contenus. 

Les très grandes plateformes devraient compléter ces informations en analysant dans quelle mesure leur système de modération et de recommandation de contenus empêche réellement la diffusion de contenus illicites. Même chose au niveau des publicités, dont les plateformes doivent s’assurer qu’elles n’orientent pas les internautes vers des opinions haineuses ou discriminantes. De la même manière, les publicités ne doivent pas constituer une source de revenus et une incitation financière pour les producteurs de contenus illégaux. Une fois ces constats dressés, les plateformes devront ensuite prévoir des mesures pour optimiser leur politique. Le DSA énumère plusieurs options, qui vont de l’adaptation des systèmes de modération à la limitation des publicités ciblées, en passant par l’instauration de codes de conduite. Ces mesures seraient contrôlées lors d’un audit annuel. En outre, des protocoles spécifiques s’appliqueraient en cas de “crise” (catastrophe naturelle, pandémie, attaque terroriste…), pour limiter la diffusion massive de contenus illicites et de désinformation.

Enfin, plusieurs dispositions du DSA visent à contrebalancer ces obligations en garantissant le respect de la liberté d’expression. L’auteur d’un contenu jugé illicite devrait notamment être informé en cas de retrait ou de blocage. Outre le recours judiciaire, il pourrait contester gratuitement cette décision auprès de la plateforme. Si l’utilisateur obtenait finalement gain de cause, l’annulation du retrait et la republication de son contenu devraient intervenir sans retard.

Votre avis compte : avez-vous trouvé ce que vous cherchiez dans cet article ?

Participez au débat et laissez un commentaire

Commentaires sur Haine en ligne et contenus illicites : que fait l'Europe ?

Lire la charte de modération

Commenter l’article

Votre commentaire est vide

Votre nom est invalide