top of page

[Fiche] La responsabilité des plateformes de notation en ligne : entre transparence, loyauté et encadrement européen

  • lcv-avocat
  • 21 mai
  • 4 min de lecture


La notation en ligne est devenue un outil incontournable pour orienter les choix des consommateurs. Notes, étoiles, classements, scores algorithmiques : autant d’indications qui peuvent grandement influencer la réputation d’un professionnel ou d’une entreprise. Mais lorsque ces notations reposent sur des critères opaques, biaisés, ou non vérifiables, leur impact peut devenir dévastateur pour une entreprise et juridiquement risqué.


Dans un contexte de multiplication des contentieux liés à la réputation numérique, le droit français comme le droit européen imposent désormais des obligations précises aux plateformes de notation. Deux textes sont aujourd’hui centraux :


  • l’article L.111-7-2 du Code de la consommation, issu de la loi pour une République numérique ;

  • le Digital Services Act (DSA), règlement européen entré en vigueur en 2024

  • et l’IA Act (Règlement européen sur l’intelligence artificielle), adopté en 2024.


Transparence et loyauté comme principes directeurs


L’article L.111-7-2 impose aux plateformes qui collectent ou diffusent des avis de consommateurs en ligne plusieurs obligations substantielles, visant à garantir l’authenticité, la clarté et la traçabilité des notations.


Obligations principales :


  1. Informer clairement si les avis ont fait l’objet d’un contrôle, et si oui, sur les modalités de ce contrôle (vérification d’achat, modération, etc.).

  2. Afficher la date de publication et la date de l’expérience de consommation évaluée.

  3. Permettre à l’auteur de signaler un contenu illicite.

  4. Permettre à tout professionnel concerné par un avis de signaler une inexactitude.

  5. Interdiction des avis manipulés ou achetés sans mention explicite.

En cas de manquement, la responsabilité du site peut être engagée sur le fondement :

  • des pratiques commerciales trompeuses (art. L.121-2 et suivants C. cons.) ;

  • de la responsabilité délictuelle (art. 1240 C. civ.) en cas de préjudice avéré ;

  • voire de sanctions administratives prononcées par la DGCCRF.


Cette obligation de loyauté s’applique également aux notations automatiques, y compris lorsqu’elles sont générées par un algorithme. Le professionnel noté doit être en mesure de comprendre les critères retenus et de contester un score erroné ou injustifié.


Le Digital Services Act (DSA) : un cadre européen ambitieux pour les plateformes


Le DSA (règlement UE 2022/2065) est entré en application en février 2024. Il consacre un cadre de responsabilité graduée et proportionnée selon la taille et le rôle des acteurs numériques.


Il s’applique à toutes les plateformes numériques qui permettent la diffusion publique d'informations, y compris les sites de notation et d’avis en ligne.


Pour les plateformes de notation, le DSA impose notamment :

  • Une transparence algorithmique (art. 27) : la plateforme doit expliquer de manière claire le fonctionnement de ses systèmes de classement, notation ou recommandation.

  • Une obligation de justification des notations ou classements, avec une mention des critères et de leur pondération.

  • Des mécanismes de signalement aisés pour les contenus problématiques (art. 16).

  • Un droit de recours interne pour les utilisateurs sanctionnés ou notés négativement (art. 20).

  • Une obligation de coopération avec les autorités nationales, notamment en cas de contenu illicite.


Le DSA renforce également la responsabilité des "très grandes plateformes" (VLOPs), qui doivent évaluer et limiter les risques systémiques liés à leurs algorithmes, notamment en matière de réputation, de biais ou de manipulation.


IA Act : vers une régulation des systèmes de notation automatisés à « risque »

Le Règlement sur l’intelligence artificielle (IA Act), adopté définitivement en 2024 et entrant progressivement en application dès 2025, vient compléter le DSA en apportant un cadre juridique spécifique aux systèmes d’intelligence artificielle utilisés dans un contexte commercial ou social.


Sont notamment visés par l’IA Act les systèmes d’IA à usage général et ceux classés comme présentant un risque spécifique pour les droits fondamentaux, la sécurité ou la transparence des décisions.


Les systèmes de notation automatisée, y compris ceux utilisés pour évaluer la fiabilité d’un professionnel, d’un site marchand ou d’un service (via des algorithmes de scoring), peuvent relever du champ d’application du règlement, s’ils ont un impact significatif sur le comportement des consommateurs ou la réputation économique d’un tiers.


Les obligations qui peuvent s’appliquer :


  • Documentation et traçabilité du système d’IA utilisé pour produire la note ou le classement ;

  • Explication intelligible du fonctionnement de l’algorithme à destination des utilisateurs et des personnes notées ;

  • Évaluation des risques d’usage abusif, discriminatoire ou opaque ;

  • Contrôles humains et droit à l’intervention humaine pour contester ou corriger les résultats.


Le lien est clair : plus un système de notation influe sur la réputation ou l’accès à un service, plus il doit être encadré au regard des critères de l’IA Act. Une note générée automatiquement, sans contrôle humain, sans justification accessible et sans possibilité de recours, pourrait à l’avenir être jugée illégale, non seulement au titre du DSA, mais aussi de l’IA Act.


Quelle responsabilité pour les plateformes ?


La responsabilité des plateformes varie selon qu’elles :


  • hébergent des avis tiers (statut d’hébergeur → responsabilité atténuée, sauf signalement) ;

  • produisent ou génèrent elles-mêmes les notes (statut d’éditeur → responsabilité pleine).


En cas de notation automatique fondée sur des critères techniques ou comportementaux, les juges exigent désormais :

  • une base factuelle suffisante ;

  • une méthode explicite et cohérente ;

  • une modération loyale et transparente.


À défaut, le dénigrement fautif peut être retenu, même sans concurrence directe, comme l’a rappelé récemment la Cour d’appel de Paris (2025, affaire Scamdoc).


Conclusion : vers une responsabilité accrue et encadrée

Les plateformes de notation ne peuvent plus se retrancher derrière la neutralité technologique ou l’objectivité algorithmique. La notation est un acte de communication publique, potentiellement préjudiciable, qui doit être encadré, justifié et contestable.

La transparence des critères, la loyauté du traitement, et la possibilité de recours sont aujourd’hui les trois piliers d’une notation licite en ligne.

Le droit offre aux entreprises notées des moyens de défense concrets contre les notations arbitraires, biaisées ou manipulées. Mais il impose aussi aux plateformes une responsabilité accrue.


Naos Avocat accompagne les professionnels dans la défense de leur réputation en ligne et les plateformes dans la mise en conformité avec ces nouvelles réglementations.



Comments


bottom of page