La lutte contre les fake news sur Internet n’est pas seulement un sujet médiatique : au croisement entre les enjeux de sincérité du scrutin, d’ingérence étrangère dans un processus électoral et de responsabilisation des plateformes, le sujet a fait l’objet d’une loi.
Entrée en vigueur en décembre 2018, la loi relative à la lutte contre la manipulation de l’information passe actuellement sa première épreuve à l’occasion des élections européennes. Ce texte représente bien plus qu’une tentative de définition de la notion de « fausse information » : il s’agit d’un nouveau bloc du droit des plateformes et des algorithmes, auquel chaque opérateur peut se référer, notamment en ce qui concerne les sujets de transparence des algorithmes.
Droit du Partage vous en présente les contours et les enjeux de sa première mise en œuvre concrète.
- Les plateformes numériques au cœur du dispositif
Les opérateurs de plateformes sont au cœur du dispositif de la loi fake news : le texte reconnait leur place primordiale dans la diffusion de l’information et les place au cœur du dispositif réglementaire.
Cependant, la loi ne s’adresse pas à tous les opérateurs de plateformes et précise que les plateformes concernées sont celles dont l’activité repose sur la promotion de contenus d’information se rattachant à un débat d’intérêt général.
Parmi les nombreuses mesures qu’elle contient, les trois principales sont les suivantes :
- D’une part la loi renforce, pendant les périodes électorales (c’est-à-dire trois mois avant les élections) les obligations d’information et de transparence des plateformes ayant plus de 5 millions de visiteurs uniques par mois (voir le décret ici) sur les « contenus d’information se rattachant à un débat d’intérêt général » (i) en informant les utilisateurs sur l’identité de la personne qui rémunère la plateforme en échange de la promotion de contenus ; (ii) en fournissant une information loyale, claire et transparente sur l’utilisation des données personnelles dans le cadre de la promotion de contenus d’information et (iii) en rendant public le montant des rémunérations reçues en contrepartie de la promotion de contenus d’information lorsque leur montant est supérieur à 100 euros.
- D’autre part, de façon plus structurelle et permanente (c’est-à-dire même hors périodes électorales), la loi prévoit l’obligation pour les plateformes de mettre en œuvre des mesures visant à lutter contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou d’altérer la sincérité d’un scrutin. Pour cela, les plateformes peuvent notamment prendre des mesures de (i) transparence de leurs algorithmes, de (ii) promotion des contenus issus d’entreprises et d’agences de presse ou de (iii) lutte contre les comptes propageant massivement de fausses informations.
- Enfin, la loi crée une procédure spécifique en période électorale, aussi appelée « référé fake news», qui permet au ministère public, à tout candidat, tout parti ou toute personne ayant intérêt à agir, de demander au juge des référés, sous 48 heures, de prendre des mesures proportionnées et nécessaires pour faire cesser la diffusion de ces informations auprès des hébergeurs et des plateformes qui hébergent les contenus en question.
- Quelle mise en œuvre concrète pendant la campagne des européennes ?
La campagne des élections européennes a été l’occasion d’une première mise en application de cette loi.
Les opérateurs de plateformes concernés par le dispositif ont pris des mesures allant dans le sens d’une meilleure information de leurs utilisateurs, notamment sur le dispositif de signalement de fausses informations, l’information concernant les auteurs d’articles « politiques » et les mesures prises par l’opérateur pour lutter contre la diffusion de fausses informations en période électorale. À titre d’exemple, Facebook a mis en ligne une page internet dédiée au sujet et Twitter a mis en œuvre sur sa plateforme un dispositif de signalement de contenu permettant de signaler un tweet comme « induisant en erreur au sujet d’élections ».
Du côté procédural, le « référé fake news » vient de connaître sa première décision avec un jugement du Tribunal de grande instance de Paris rendu le 17 mai après la demande formulée, par deux élus communistes pour obtenir le retrait, par Twitter, d’un tweet du Ministre de l’intérieur concernant les manifestations de gilets jaunes et l’utilisation du terme « attaque » pour désigner la présence de gilets jaunes dans l’enceinte de l’Hôpital de la Pitié-Salpêtrière. Dans sa décision, le Tribunal refuse de faire droit à la demande de retrait du tweet, notamment au motif que l’information diffusée par le Ministre de l’intérieur n’est pas « manifestement inexacte ou trompeuse ». Cette première décision est intéressante car elle met en lumière le difficile effort de qualification d’une « fake news » et la complexité de sa mise en oeuvre : en l’espèce, les juges ont apprécié de manière restrictive la définition de la fausse information qui doit être manifestement inexacte ou trompeuse et qui doit être diffusée de manière délibérée, artificielle ou automatisée et massive.
Les prochaines décisions en la matière seront particulièrement intéressantes à suivre, notamment si elles portent sur des informations ne relevant pas de l’appréciation de faits par des responsables politiques, un « cas d’usage » de fake news qui ne correspond pas aux comportements que la loi vise à sanctionner, à savoir la diffusion massive d’une information fausse au moyen d’un système automatisé.
- Quelles perspectives pour la lutte contre la manipulation d’information ?
Le principal défaut de la loi relative à la lutte contre la manipulation d’information est sans doute son caractère national et isolé (à l’exception de Singapour – LIEN), dans un contexte où la diffusion de fausses informations se développe de manière transnationale, privant ainsi un dispositif exclusivement national d’efficacité dans le cas où les données considérées comme relevant de fake news sont stockées ou hébergées à l’étranger.
L’Europe semble être un échelon plus pertinent à cet égard. C’est pourquoi les récentes initiatives européennes visant à lutter contre la désinformation sont intéressantes et à suivre : elles visent, à travers un mécanisme de conformité volontaire des opérateurs de plateformes, à atteindre les mêmes objectifs que la loi française, avec des résultats qu’il conviendra d’observer. Le récent code européen de bonnes pratiques contre la désinformation sur internet auquel Facebook, Google et Twitter ont chacun adhéré est un bon exemple de mécanisme de régulation, fondé sur le volontarisme des acteurs, qui permet de contraindre les acteurs de manière plus efficace qu’une loi nationale. Les plateformes signataires de la charte publient ainsi régulièrement des rapports concernant les mesures qu’elles prennent pour lutter contre la désinformation, sous le contrôle attentif de la Commission européenne.
Le sujet de la lutte contre la désinformation en ligne est donc loin d’être clos, faute de mécanisme transnational efficace ou de corps de règles unifié à l’échelle européenne permettant de fixer des règles cohérentes pour toutes les plateformes opérant en Europe.
Droit du Partage continuera naturellement à suivre ce sujet pour vous.