C'est le deuxième volet d'une série de blogs en quatre parties sur les lois mondiales sur la responsabilité des intermédiaires. Vous pouvez lire des articles supplémentaires ici :

Tendances de la responsabilité des plateformes dans le monde : des sphères de sécurité à une responsabilité accrue 

Tendances de la responsabilité des plateformes dans le monde : développements récents notables

Le réseau de lois mondiales sur la responsabilité des intermédiaires est devenu de plus en plus vaste et complexe à mesure que les décideurs politiques du monde entier adoptent des cadres juridiques plus stricts pour la réglementation des plateformes. Pour aider à démêler les choses, nous proposons un aperçu des différentes approches de la responsabilité des intermédiaires. Nous présentons également une version de la boîte à outils de responsabilité des intermédiaires de Daphne Keller, qui contient les composants typiques d'une loi sur la responsabilité des intermédiaires ainsi que les divers cadrans et boutons réglementaires qui permettent aux législateurs de calibrer son effet. 

Continuum en cinq parties de la responsabilité des intermédiaires

La responsabilité elle-même peut être distinguée sur la base du recours : responsabilité pécuniaire et non pécuniaire. La responsabilité pécuniaire se traduit par l'octroi de dommages-intérêts compensatoires au demandeur, tandis que la responsabilité non pécuniaire se traduit par des ordonnances qui obligent l'intermédiaire à prendre des mesures contre les activités illicites entreprises grâce à l'utilisation de leurs services (généralement sous la forme d'injonctions de faire ou de s'abstenir de faire quelque chose).

 

Les réparations pécuniaires sont obtenues après avoir établi la responsabilité d'un intermédiaire -qui va de la responsabilité stricte, fondée sur la faute, fondée sur la connaissance et jugée par un tribunal à l'immunité totale. Diverses configurations le long de ce spectre continuent d'émerger, alors que les régulateurs expérimentent des cadrans et des boutons réglementaires pour élaborer une législation adaptée à des contextes spécifiques.

Five-part continuum of Intermediary Liability

 

Les catégories introduites dans cette section doivent être comprises comme des concepts généraux, car de nombreux cadres réglementaires ne sont pas clairs ou ne permettent pas de discrétion et de flexibilité dans leur application.

Dans le cadre des régimes de responsabilité stricte, les intermédiaires en ligne sont responsables des fautes de l'utilisateur, sans que les demandeurs aient besoin de prouver une faute ou une connaissance d'actes répréhensibles de la part de l'intermédiaire. Comme la responsabilité peut survenir même si l'intermédiaire n'a absolument rien fait de mal, les régimes de responsabilité stricte rendent les intermédiaires trop prudents ; ils ont tendance à effectuer une surveillance générale du contenu des utilisateurs et à minimiser leur exposition aux réclamations en « supprimant de manière excessive » les éléments potentiellement illégaux. Ainsi, les régimes de responsabilité objective grèvent lourdement la parole en ligne en incitant les intermédiaires à censurer la parole, même celle qui n'est pas préjudiciable.

Les approches fondées sur la faute imposent une responsabilité lorsque l'intermédiaire ne respecte pas les obligations de « diligence raisonnable » spécifiées ou un devoir de diligence particulier. Par exemple, les intermédiaires peuvent être obligés de supprimer certains types de contenu dans un délai précis et/ou d'empêcher leur (ré)apparition. Le projet de loi britannique sur la sécurité en ligne, par exemple, impose des obligations de diligence qui sont liées à certaines notions larges et potentiellement subjectives de préjudice, qui sont à leur tour susceptibles d'exiger des plateformes qu'elles s'engagent dans une surveillance générale du contenu des utilisateurs. La responsabilité basée sur la négligence, selon le modèle du Royaume-Uni, adopte une approche systématique de la modération du contenu, plutôt que de traiter des éléments de contenu individuels.

La norme de diligence requise dans le cadre de ces approches de la responsabilité peut varier sur un continuum allant de la négligence (telle qu'établie par les actions d'une personne raisonnable) à l'insouciance (un écart substantiel par rapport à l'action raisonnable). Les systèmes de responsabilité basés sur la faute sont très susceptibles d'exiger effectivement un certain degré de surveillance générale des utilisateurs et peuvent conduire à une suppression excessive systématique de contenu ou à la suppression de contenu qui peut être indésirable, mais qui est par ailleurs parfaitement légal.

Les approches fondées sur la connaissance imposent une responsabilité en cas de violation de contenu lorsque les intermédiaires ont connaissance d'un contenu illégal ou ont connaissance d'un comportement illégal. Les systèmes de responsabilité basés sur la connaissance fonctionnent généralement via des systèmes de notification et de retrait et ne nécessitent donc généralement pas de surveillance générale omniprésente. Il existe différents types de systèmes de notification et de retrait, qui varient dans leur conception et fournissent des réponses différentes à la question de savoir ce qui constitue une notification efficace. Ce qui constitue la connaissance de la part de l'intermédiaire est également une question importante et pas simple. Par exemple, certaines juridictions exigent que l'illégalité soit « manifeste », donc évidente pour un profane. La directive européenne sur le commerce électronique est un exemple frappant de système fondé sur la connaissance : les intermédiaires sont exonérés de toute responsabilité à moins qu'ils ne soient au courant d'un contenu ou d'un comportement illégal et qu'ils n'agissent pas à leur encontre. Ce qui importe, par conséquent, c'est ce que l'intermédiaire sait réellement, plutôt que ce qu'un prestataire aurait pu ou aurait dû savoir, comme c'est le cas dans les systèmes fondés sur la négligence. Cependant, la proposition de la Commision européenne sur la Digital Services Act s'est éloignée de l'approche traditionnelle de l'UE en prévoyant que des notifications dûment motivées par les utilisateurs donnent automatiquement lieu à une connaissance réelle du contenu notifié, établissant ainsi une approche de « connaissance constructive » : les fournisseurs de plateformes sont irréfutablement présumés par la loi avoir connaissance du contenu notifié, que ce soit effectivement le cas ou non. Dans l'accord final, les législateurs ont convenu qu'il devrait être pertinent de savoir si un avis permet à un fournisseur diligent d'identifier l'illégalité du contenu sans un examen juridique détaillé.

Les Principes de Manille, élaborés par l'EFF et d'autres ONG, soulignent l'importance de la décision des tribunaux en tant que norme mondiale minimale pour les règles de responsabilité des intermédiaires. En vertu de cette norme, un intermédiaire ne peut être tenu responsable que si le matériel a été pleinement et définitivement jugé illégal et qu'un tribunal a valablement ordonné son retrait. Il devrait appartenir à une autorité judiciaire impartiale de déterminer que le matériel en cause est illégal. Les intermédiaires ne doivent donc pas perdre le bouclier d'immunité s'ils choisissent de ne pas supprimer un contenu simplement parce qu'ils ont reçu une notification privée d'un utilisateur, ou doivent-ils être responsables de connaître l'existence d'ordonnances judiciaires qui ne leur ont pas été présentées ou qui ne nécessitent pas leur demander de prendre des mesures correctives spécifiques. Seules les ordonnances rendues par des tribunaux indépendants devraient obliger les intermédiaires à restreindre le contenu et toute responsabilité imposée à un intermédiaire doit être proportionnée et directement corrélée au comportement fautif de l'intermédiaire en ne se conformant pas de manière appropriée à l'ordonnance de restriction de contenu.

L'immunité de responsabilité pour le contenu généré par l'utilisateur reste plutôt rare, bien qu'elle se traduise par une protection accrue de la parole en n'appelant pas, en incitant fortement ou en exigeant effectivement la surveillance du contenu de l'utilisateur avant sa publication. L'article 230 fournit l'exemple le plus clair d'approches fondées sur l'immunité dans lesquelles les intermédiaires sont exonérés d'une certaine responsabilité pour le contenu de l'utilisateur, bien qu'il ne s'étende pas aux violations de l'immunité du droit pénal fédéral, du droit de la propriété intellectuelle ou du droit de la confidentialité des communications électroniques. L’article 230 (47 U.S.C. § 230) est l'une des lois les plus importantes protégeant la liberté d'expression et l'innovation en ligne. Il supprime le fardeau de la surveillance préalable à la publication, qui est effectivement impossible à grande échelle, et permet ainsi aux sites et services qui hébergent du contenu généré par les utilisateurs, y compris des discours controversés et politiques, d'exister. L'article 230 permet ainsi aux utilisateurs de partager leurs idées sans avoir à créer leurs propres sites ou services individuels qui auraient probablement une portée beaucoup plus réduite.

 

La boîte à outils de la responsabilité des intermédiaires

 En règle générale, les lois sur la responsabilité des intermédiaires cherchent à équilibrer trois objectifs : prévenir les préjudices, protéger la parole et l'accès à l'information, et encourager l'innovation technique et la croissance économique. Afin d'atteindre ces objectifs, les législateurs assemblent les principales composantes des lois intermédiaires de différentes manières. Ces composants consistent généralement en : des sphères de sécurité ; systèmes de notification et de retrait ; et les obligations de procédure régulière et l'application des conditions de service. De plus, comme le fait remarquer Daphne Keller, l'impact de ces lois peut être géré en ajustant divers « cadrans et boutons réglementaires » : la portée de la loi, ce qui constitue la connaissance, les processus de notification et d'action et les « clauses du bon samaritain ». En outre, et à notre grande consternation, ces dernières années, certains gouvernements ont élargi les obligations des plateformes pour inclure la surveillance ou le filtrage, malgré les inquiétudes suscitées par les menaces aux droits humains soulevées par les groupes de la société civile et les responsables des droits humains.

 

Passons brièvement en revue les principaux outils dont disposent les législateurs pour élaborer des règles de responsabilité des intermédiaires.

Les sphères de sécurité offrent une immunité de responsabilité pour le contenu de l'utilisateur. Ils sont généralement limités et/ou conditionnels. Par exemple, aux États-Unis, l'article 230 ne s'applique pas à la responsabilité pénale fédérale et aux réclamations de propriété intellectuelle. L'approche fondée sur la connaissance de l'UE en matière de responsabilité est un exemple de sphère de sécurité conditionnelle : si la plateforme prend connaissance d'un contenu illégal mais ne parvient pas à le supprimer, l'immunité est perdue.

La plupart des lois sur la responsabilité des intermédiaires s'abstiennent d'exiger explicitement des plateformes qu'elles surveillent de manière proactive les contenus contrefaits ou illégaux. Le fait de ne pas obliger les plateformes à utiliser des systèmes de filtrage automatisés ou à contrôler ce que les utilisateurs disent ou partagent en ligne est considéré comme une garantie importante pour la liberté d'expression des utilisateurs. Cependant, de nombreux projets de loi incitent à l'utilisation de systèmes de filtrage et nous avons vu des initiatives législatives récentes inquiétantes et controversées qui obligent les plateformes à mettre en place des mesures systématiques pour empêcher la diffusion de certains types de contenus ou à agir de manière proactive contre les contenus qui sont sans doute très reconnaissables. . Des exemples de ces mesures réglementaires seront présentés dans la troisième partie de cette série de blogs. Alors que dans certaines juridictions, les plateformes sont tenues d'agir contre le contenu illégal lorsqu'elles en prennent connaissance, des juridictions plus protectrices de la parole exigent un tribunal ou une ordonnance gouvernementale pour la suppression de contenu.

Les intermédiaires établissent souvent leurs propres procédures de « notification et action » lorsque la loi ne prévoit pas une immunité totale pour le contenu généré par les utilisateurs. En vertu de la directive européenne sur le commerce électronique (ainsi que de l'article 512 du Digital Millennium Copyright Act (DMCA), qui prévoit même une procédure de notification et de retrait), les fournisseurs de services sont censés supprimer le contenu prétendument illégal dès qu'ils sont informés de son existence, en échange pour se protéger de certaines formes de responsabilité. Ces obligations légales mettent souvent en danger la liberté d'expression des utilisateurs. Les plateformes ont tendance à se comporter avec une prudence accrue dans de tels régimes, en prenant souvent le parti de supprimer un contenu parfaitement légal, afin d'éviter toute responsabilité. Il est beaucoup plus facile et moins coûteux de simplement répondre à tous les avis en supprimant le contenu, plutôt que de dépenser des ressources pour enquêter sur le bien-fondé de l'avis. Juger de la légalité d'un contenu - qui est souvent peu clair et nécessite une compétence juridique spécifique - a été extrêmement difficile pour les plateformes.

Les intermédiaires exercent également une modération en appliquant leurs propres conditions de service et normes communautaires, en désactivant l'accès au contenu qui viole leurs accords de service. Ceci est considéré comme des efforts de « bon samaritain » pour créer des environnements civils sains sur les plateformes. Cela peut également permettre le pluralisme et une diversité d'approches de la modération de contenu, à condition qu'il y ait suffisamment de concurrence sur le marché pour les services en ligne. Les plateformes ont tendance à concevoir leurs environnements en fonction de leur perception des préférences des utilisateurs. Cela pourrait impliquer la suppression de contenu licite mais indésirable, ou de contenu qui ne correspond pas aux codes moraux déclarés d'une entreprise (par exemple, l'interdiction de la nudité de Facebook). Alors que le discours évolue dans de nombreux pays, les plateformes dominantes sont reconnues pour le rôle influent qu'elles jouent dans la vie publique. Par conséquent, leurs conditions de service reçoivent davantage d'attention publique et politique, des pays comme l'Inde cherchant à exercer un contrôle sur les conditions de service des plateformes par le biais « d'obligations de diligence raisonnable », et avec l'émergence d'initiatives indépendantes visant à recueillir des informations complètes sur la manière dont et pourquoi les plateformes de médias sociaux suppriment les publications des utilisateurs.

Enfin, l'impact des systèmes de notification et d'action sur les droits humains des utilisateurs peut être atténué ou exacerbé par les dispositions relatives à la régularité de la procédure. Les garanties procédurales et les mécanismes de recours, lorsqu'ils sont intégrés aux systèmes de notification et d'action des plateformes, peuvent aider à protéger les utilisateurs contre les suppressions de contenu erronées et injustes.

Cadrans et boutons réglementaires pour les décideurs

En plus d'élaborer une loi sur la responsabilité des intermédiaires avec les différentes pièces décrites ci-dessus, les régulateurs utilisent également différents « cadrans et boutons » - des dispositifs juridiques pour ajuster l'effet de la loi, comme souhaité.

Portée

Les lois sur la responsabilité des intermédiaires peuvent varier considérablement dans leur portée. Le champ d'application peut être réduit ou élargi pour inclure les fournisseurs de services au niveau de l'application (comme les plateformes de médias sociaux) ou également les fournisseurs d'accès à Internet, par exemple.  

Intervention avec contenu

Une plateforme perd-elle son immunité lorsqu'elle intervient dans la présentation de contenus, par exemple via la recommandation algorithmique ? Aux États-Unis, les plateformes conservent l'immunité lorsqu'elles choisissent de conserver ou de modérer le contenu. Dans l'Union européenne, la situation est moins claire. Trop d'interventions peuvent être considérées comme équivalant à des connaissances, et pourraient ainsi conduire les plateformes à perdre leur immunité.

Connaissance

Dans les modèles de responsabilité fondés sur la connaissance, une sphère de sécurité est liée aux connaissances des intermédiaires sur le contenu illicite. Ce qui constitue la connaissance réelle devient donc un important outil de régulation. Quand un fournisseur de services peut-il être réputé avoir connaissance d'un contenu illégal ? Après une notification d'un utilisateur ? Après une notification d'une source fiable ? Après une injonction d'un tribunal ? Les définitions larges et étroites des connaissances peuvent avoir des implications très différentes pour la suppression du contenu et l'attribution de la responsabilité.

Règles de notification et d’action

Dans les juridictions qui impliquent ou imposent des régimes de notification et d'action, il est crucial de se demander si les détails d'un tel mécanisme sont prévus par la loi. Le processus selon lequel le contenu peut être supprimé est-il étroitement défini ou laissé aux plateformes ? La loi prévoit-elle des garanties détaillées et des options de recours ? Des approches différentes de ces questions conduiront à des applications très différentes des règles intermédiaires, et donc à des effets très différents sur la liberté d'expression des utilisateurs.

Dans le volet suivant, nous exploreront les développements récents et les propositions réglementaires du monde entier. Les autres blogs de cette série peuvent être trouvés ici :

Partie 1 : Des sphères de sécurité à une responsabilité accrue

Partie 3 : Tendances de la responsabilité des plateformes dans le monde : développements récents notables

 

 

Related Issues