La modération des contenus par les plateformes : un équilibre économique en cours de construction

Les internautes dédient une majeure partie de leur temps journalier à l’activité en ligne. En 2019, ils ont ainsi passé en moyenne plus de deux heures par jour connectés, dont plus d’un tiers sur les réseaux sociaux[1]. Facebook, Youtube, Instagram ou Tiktok jouent le rôle de « courtiers d’attention », encourageant leurs utilisateurs à rester en ligne afin de monétiser leur attention en affichant des publicités. Plus les internautes passent de temps sur les réseaux sociaux, plus nombreuses sont les interactions avec les publicités, et plus élevé sera le profit de la plateforme.

Pour les entreprises, acheter des emplacements publicitaires sur les réseaux sociaux n’est pas sans risques. Les contenus, essentiellement générés par des internautes,  ne sont pas validés avant leur publication. Il arrive alors souvent que ces contenus soient inadaptés ou inappropriés, voire illégaux. L’histoire récente des réseaux sociaux présente, à cet égard, de nombreux exemples de scandales. En juin 2020, plusieurs marques (Adidas, Coca-Cola, Unilever…) ont décidé de boycotter Facebook en réponse à un environnement publicitaire jugé risqué et malsain[2]. Facebook n’est ni la seule, ni la première plateforme devant faire face à des problématiques liées aux contenus sensibles. Entre 2017 et 2019, Youtube a subi ce que les médias ont appelé l’Adpocalypse : d’importantes marques comme Disney, Walmart, Verizon ou encore Volkswagen se sont plaintes du fait que leurs publicités apparaissaient couplées à des vidéos inappropriées, racistes et extrémistes[3]. Au moment du scandale, toutes ces marques ont massivement diminué leurs investissements publicitaires sur Youtube, si bien que la plateforme a réagi en fermant 400 chaînes et en supprimant des milliers de commentaires et vidéos.

Dans un article récent intitulé “User-generated content, Strategic moderation, and Advertising”[4], Leonardo Mado et Martin Quinn explorent les incitations des plateformes à modérer les contenus sensibles et comment ceci impacte leurs rentabilités. Pour ce faire, les auteurs développent un modèle utilisant la théorie des jeux et les marchés bifaces, et démontrent que les plateformes font face à un arbitrage. D’un côté, une modération plus restrictive permet de créer un environnement sain pour les publicités, mais empêche certains utilisateurs de générer du contenu. De l’autre côté, une absence de modération peut générer plus d’activité sur la plateforme, mais potentiellement diminuer la confiance des annonceurs qui achètent des publicités. Cet arbitrage a un effet sur le prix des publicités et les profits des plateformes. Ces dernières vont s’orienter vers la stratégie la plus profitable compte tenu du coût à modérer les contenus postés par les utilisateurs.

En prenant en considération cet arbitrage, il apparaît que certaines politiques publiques en préparation sur la régulation des plateformes auraient des conséquences sur la modération des contenus. Les chercheurs montrent tout d’abord comment une compétition accrue entre plateformes incite potentiellement à une modération plus laxiste. Ce résultat provient du fait que les internautes étant plus difficiles à attirer, il est alors naturel pour les plateformes d’autoriser une génération de contenu plus large afin de capter leur attention.

Dans un second temps, les auteurs analysent comment l'introduction d’une taxe sur les revenus publicitaires transforme le comportement des plateformes . Ils soulignent qu'une telle taxe – diminuant la rentabilité des plateformes – pourrait conduire à un sous-investissement en modération des contenus.

Enfin, l'article auteur souligne le caractère général et actuel de cette étude. Comprendre le système économique dans lequel évoluent les plateformes permet de mieux appréhender leurs politiques de traitement des fake news et des contenus violents. Inclure cette analyse dans le développement des politiques publiques liées aux plateformes s’avère alors primordial. À titre d’exemple, les très récentes lois ayant pour but de lutter contre la prolifération des fakes news[5] et des contenus haineux[6] pourraient avoir des effets inattendus sur l’économie des plateformes – ces dernières repositionnant leur stratégie de marché dans le but de maximiser leurs profits publicitaires.

 


Martin Quinn, Chercheur post-doctoral en Economie, Católica Lisbon School of Business and Economics (Portugal), membre associé de la Chaire VP-IP


 

[1]     L’Express, ‘Les Français passent désormais plus de deux heures par jour sur internet’, https://www.lexpress.fr/actualite/societe/les-francais-passent-desormais-plus-de-deux-heures-par-jour-sur-internet_2118901.html

 

[2] TheNewYorkTimes, 'The Brands Pulling Ads From Facebook Over Hate Speech', https://www.nytimes.com/2020/06/26/business/media/Facebook-advertising-boycott.html

 

[3] Fandom, 'YouTube Adpocalypse'

https://youtube.fandom.com/wiki/YouTubeAdpocalypse

 

[4] Madio, Leonardo and Quinn, Martin, User-Generated Content, Strategic Moderation, and Advertising (March 9, 2020). Available at SSRN: https://ssrn.com/abstract=3551103  or http://dx.doi.org/10.2139/ssrn.3551103

 

[5] Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information.

 

[6]Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet

 

 

Commentaires Clos.