Débat public en ligne et protection des libertés de communication

D

Etude réalisée sur mandat de l’Office fédéral de la communication

Denis Masmejan, Dr en droit, secrétaire général de la section suisse de Reporters sans frontières (RSF), chargé d’enseignement à l’Académie du journalisme et des médias de l’Université de Neuchâtel, membre du Conseil suisse de la presse, journaliste RP.

Zusammenfassung: In der vom Bundesamt für Kommunikation (BAKOM) finanzierten Studie untersucht Denis Masmejan die verfassungsrechtlichen Grundlagen zur Regelung und zum Schutz der öffentlichen Online-Debatte. Der Autor verteidigt den Vorrang der Meinungs- und Medienfreiheit gegenüber behördlichen Versuchen, die öffentliche Debatte zu kontrollieren, und gegen Massnahmen, welche die Freiheiten auf digitalen Plattformen zu sehr beschränken würden.
Die direkte Regulierung der Inhalte durch das Gesetz und durch Nutzungsregelungen sowie die Moderationspolitik der Plattformen selbst sind unter dem Gesichtspunkt der Respektierung der Grundfreiheiten heikel. Häufig läuft es darauf hinaus, digitalen Giganten die Herrschaft über die Inhalte zu überlassen, was eine willkürliche Diskriminierung unerwünschter Inhalte, die eigentlich von der Meinungsfreiheit geschützt wären, zur Folge haben kann.
Der Autor weist auch darauf hin, dass staatliche Medienförderung im Zuge des digitalen Wandels zwar notwendig ist, den Behörden aber keinen direkten oder indirekten Einfluss auf die veröffentlichten Inhalte verschaffen darf.

Résumé: Dans cette étude financée par l’Office fédéral de la communication (OFCOM), Denis Masmejan examine les bases constitutionnelles qui encadrent et protègent le débat public en ligne. L’auteur défend la primauté de la liberté d’expression et de la liberté des médias aussi bien contre la tentation des autorités de contrôler le débat public que contre les atteintes que peuvent subir ces libertés sur les plateformes numériques.
La régulation directe des contenus, par la loi aussi bien que par les règles d’utilisation et les politiques de modération des plateformes elles-mêmes, est délicate du point de vue du respect des libertés fondamentales. Elle revient souvent à donner aux géants du numérique le pouvoir de discriminer arbitrairement des contenus jugés indésirables mais qui sont protégés par la liberté d’expression. L’auteur rappelle également que le soutien étatique des médias, s’il est nécessaire dans le contexte de la mutation numérique, ne doit conférer aux pouvoirs publics aucune influence directe ou indirecte sur les contenus publiés.

Table des matières

Avant propos

I. Aperçu de quelques acteurs du débat public en ligne       N 1

II. Le cadre constitutionnel suisse en général
     1. La compétence fédérale en matière de communication publique en ligne
(art. 93 al. 1 Cst.)       N 7

     2. Le mandat de la radio et de la télévision (art. 93 al. 2 Cst.)
          a) Asymétrie des al. 1 et 2       N 15
          b) Portée restrictive du mandat de l’al. 2       N 19
     3. La liberté d’opinion, d’information et des médias (art. 16 et 17 Cst.)
          a) Libertés de communication et nouveaux médias       N 27
          b) La liberté de s’exprimer       N 33
          c) La liberté de s’informer       N 39
          d) Effets horizontaux et devoirs de protection de l’Etat
               aa) En général       N 40
               bb) Dans l’environnement numérique       N 45
               cc) Appréciation 20
     4. La liberté de vote (art. 34 al. 2 Cst.)      N 55
     5. Compétence de l’Etat de destination?       N 60

III. Principes constitutionnels applicables à une régulation du débat public en ligne
     1. Les risques et les chances du débat public en ligne
          a) Les risques       N 63
          b) Les chances       N 68
     2. La sauvegarde du pluralisme sur les plateformes
          a) Une position dominante problématique       N 71
          b) Transparence des algorithmes       N 79
          c) Non-discrimination, neutralité et accès à une information fiable       N 84
     3. La modération des contenus par les plateformes
          a) En général       N 90
          b) Les régulations possibles       N 95
     4. La régulation des contenus par des normes étatiques
          a) En général       N 98
          b) La responsabilité des plateformes pour les contenus générés par les utilisateurs N 98
     5. Des règles spéciales pour les votations et les élections ?       N 108

IV. Mesures en faveur de la diversité des médias d’information
     1. Une presse fragilisée dans l’environnement numérique       N 115
     2. Droit à l’information, aide à la presse et liberté des médias       N 125

V. 10 thèses 40

Réponses aux questions posées par le mandant 41

Bibliographie 45


Genève, 5 mars 2020

Avant propos

L’étude qui suit a pour objet d’examiner les principes constitutionnels applicables au débat public en ligne et d’évaluer si et à quelles conditions les pouvoirs publics peuvent ou même doivent intervenir pour le réguler.

Notre propos se limitera aux normes constitutionnelles ayant une incidence directe sur la communication publique en ligne, ou, pour être plus précis, sur le contenu de cette communication. Il s’agit de la liberté d’opinion et d’information (art. 16 Cst.), de la liberté des médias (art. 17 Cst.), de l’article constitutionnel sur la radio, la télévision et les autres formes de diffusion (art. 93 Cst.) et, dans une certaine mesure, de l’art. 34 al. 2 Cst. garantissant un standard d’information du citoyen dans le contexte d’un scrutin populaire.

Nous n’aborderons pas en revanche les normes constitutionnelles ayant une incidence indirecte seulement sur le débat public en ligne. Nous songeons d’abord à l’art. 13 al. 2 Cst. qui protège toute personne contre l’emploi abusif de ses données personnelles. Il est évident que la protection des données personnelles en ligne est une question majeure que pose toute régulation des plateformes numériques, mais elle dépassait de loin le cadre de la présente étude. Nous laisserons également de côté l’art. 92 Cst. qui place les télécommunications et leur régulation technique dans la compétence de la Confédération. A plus forte raison nous abstiendrons-nous de traiter les questions de concurrence et de position dominante économiques envisagées par l’art. 96 Cst.

I. Aperçu de quelques acteurs du débat public en ligne

1

Les réseaux sociaux numériques[1] tels que Facebook, Twitter, Instagram, Snapchat ou Linkedin, constituent aujourd’hui des acteurs majeurs du débat public en ligne. Les utilisateurs de ces réseaux peuvent recevoir et partager avec les membres de leur communauté respective des contenus numériques dont ils sont ou non les auteurs – textes, images, audios ou vidéos –, suivre l’activité d’autres utilisateurs et interagir avec eux par des commentaires ou au moyen de diverses fonctions telles que le fameux bouton « like ». A fin 2019, Facebook, le plus grand des réseaux sociaux, revendiquait 2,5 milliards d’utilisateurs actifs par mois dans le monde[2]. En Suisse, il en comptait 4,2 millions en 2018[3]. La sélection des contenus diffusés auprès des utilisateurs est gérée par des algorithmes. Ceux-ci sont une pièce essentielle du modèle économique, financé par la publicité, sur lequel reposent les réseaux sociaux. Les algorithmes permettent aux plateformes de cibler les contenus offerts à chaque utilisateur en fonction des intérêts supposés de celui-ci, analysés et déterminés par l’algorithme.

3

Les services de streaming vidéo ou audio à la demande (Netflix, Spotify, etc.) offrent un catalogue très étendu de contenus acquis auprès de tiers (films, séries, documentaires, etc.) ou de productions propres. Ils concurrencent les programmes de télévision ou de radio traditionnels sans être soumis aux mêmes règles, en particulier l’exigence de pluralisme[4]. Ils se financent soit par abonnements soit par la publicité. Ils utilisent les données de leurs utilisateurs pour personnaliser leur offre. D’autres plateformes fonctionnent comme les réseaux sociaux et permettent à leurs utilisateurs de partager des vidéos qu’ils ont produites eux-mêmes ou non (services de partage : YouTube, Dailymotion).

4

Les moteurs de recherche, notamment le principal d’entre eux – Google –, occupent une position dominante et une fonction de gatekeeper pour l’accès à l’information sur le web. Google, avec Facebook, captent aujourd’hui une part importante de la publicité en ligne, qui ne va pas, ou plus, vers les sites des médias d’information. Quant aux agrégateurs de contenus, qui peuvent être liés aux moteurs de recherche (comme Google Actualités), ils donnent la possibilité à l’utilisateur d’accéder à des regroupements de sources d’informations.

5

Les « wikis » participatifs servent à l’élaboration participative, grâce à un logiciel, de contenus sur un site web. Le plus connu est l’encyclopédie en ligne « Wikipédia ». A la différence des forums de discussion en ligne, les messageries instantanées sont utilisées pour des échanges en temps réels entre les participants. WhatsApp est de plus en plus utilisé dans des campagnes politiques pour envoyer des messages personnalisés de propagande aux membres de groupes de discussion créés par des candidats ou des partis. L’application rachetée par Facebook aurait été massivement utilisée pour propager de la désinformation lors de l’élection présidentielle au Brésil en 2018[5].

6

Les assistants vocaux et enceintes intelligentes permettent à leurs utilisateurs d’interagir avec eux par la voix, et notamment de les solliciter pour obtenir une information. Ils servent notamment d’intermédiaires pour accéder à des contenus médiatiques ou de divertissement. La question est alors de savoir quels contenus l’exploitant de l’assistant vocal aura programmés, auprès de quelles sources et selon quels critères. Encore peu répandus, ils présentent néanmoins des enjeux de taille quant à la diversité et à la qualité des contenus, notamment médiatiques, auxquels ils donnent accès[6].

7

Les médias traditionnels proposent désormais presque tous[7] une offre en ligne de leurs contenus. Ils sont également présents sur les réseaux sociaux et explorent de nouveaux formats numériques (podcasts, vidéos, chats sur des thématiques d’actualité, etc.). Les réseaux sociaux se sont toutefois intercalés en partie entre les médias d’information et leur public, l’utilisateur accédant alors à des contenus médiatiques selon la logique des algorithmes et des préférences exprimées par chacun. Dans cette configuration dite de la « plateformisation » de l’information –, l’internaute reste en dehors de l’environnement hiérarchisé et structuré d’un média traditionnel. L’information qu’il consomme est fragmentée et risque d’être détachée de son contexte, et notamment d’un commentaire ou d’une analyse à laquelle elle était liée dans la démarche journalistique initiale. Elle côtoie sans distinction d’autres sources dont la fiabilité peut être déficiente. Les médias classiques n’en continuent pas moins à jouir d’un indice de confiance nettement plus marqué auprès de la population (47%) que les moteurs de recherche (29%) et les médias sociaux (17%)[8]. Ce sont d’ailleurs les plus jeunes qui doutent le plus de la crédibilité des informations qui circulent sur le web.

II. Le cadre constitutionnel suisse en général

1. La compétence fédérale en matière de communication publique en ligne (art. 93 al. 1 Cst.)

7

L’art. 93 al. 1 Cst. donne à la Confédération la compétence de légiférer « sur la radio et la télévision ainsi que sur les autres formes de diffusion de productions et d’information ressortissant aux télécommunications publiques ». Les alinéas 2 et suivants définissent le mandat attribué par la Constitution à la radio et à la télévision. A suivre la lettre du texte constitutionnel, ce mandat ne s’applique qu’à la radio et à la télévision et non aux autres formes de diffusion mentionnées à l’al. 1. Nous verrons plus loin si une interprétation plus large est concevable.

8

S’agissant ici uniquement de la compétence législative de la Confédération, il convient de déterminer si cette dernière s’étend aux formes de communication publique numérique contemporaines, sachant que plusieurs d’entre elles, dont les réseaux sociaux, n’existaient pas encore ou du moins ne s’étaient pas généralisées auprès du grand public au moment de la discussion et de l’adoption de l’art. 93. La question est controversée. Nous nous limiterons à examiner si la Confédération est compétente pour prendre des mesures à l’égard des plateformes en ligne. La réponse, à notre avis, doit être affirmative.

9

L’art. 55bis aCst. étendait déjà la compétence de la Confédération à des formes de diffusion autres que la radio et la télévision, en usant d’une formule quasiment identique à celle de l’actuel art. 93 al. 1 : « La législation sur la radio et la télévision, ainsi que sur d’autres formes de diffusion publique de productions et d’informations au moyen des techniques de télécommunication est du domaine de la Confédération. » A l’époque, l’objectif de cette norme « évolutive » (Auffangsnorm) était déjà de s’assurer que la base constitutionnelle qu’on allait créer n’allait pas être rapidement menacée d’obsolescence. Ce souci se comprend d’autant mieux si l’on se souvient que deux projets d’article constitutionnel sur la radio et la télévision avaient déjà échoué en votation populaire ; on tenait à ce que le troisième essai, s’il réussissait, soit pérenne.

10

Au début des années 80, on prévoyait donc déjà que le progrès technique en ce domaine pourrait être rapide mais qu’il restait difficile à prévoir. Quand est venu, une décennie plus tard, le temps de la révision totale de la Constitution, les mêmes anticipations ont dicté les mêmes précautions. L’internet était déjà accessible, et l’on savait qu’on était face à une révolution profonde des modes de communication. Il est vrai qu’il était encore impossible d’anticiper les développements les plus spectaculaires qui se sont produits depuis lors, celui des réseaux sociaux et des plateformes numériques tout particulièrement. Une partie de la doctrine en tire argument pour estimer que la compétence de l’Etat fédéral pour réguler les autres formes de diffusion est limitée à celles qui sont analogues ou étroitement liées à la radio et à la télévision ou qui, pour une autre raison, méritent d’y être assimilées[9]. D’autres auteurs rejettent une interprétation restrictive d’une norme qui cherchait précisément à anticiper des développements difficiles à discerner. S’il était effectivement impossible de les imaginer tous, il n’y a, pour ces auteurs, pas de raison refuser que la Confédération soit compétente aujourd’hui pour légiférer sur l’ensemble des moyens de diffusion publique numérique, même les plus contemporains[10].

11

Sans entrer dans le détail d’une controverse qui dépasserait le cadre de cette étude, nous observerons que, s’agissant des plateformes numériques elles-mêmes, elles constituent aujourd’hui une infrastructure en quelque sorte systémique du débat public dans toutes les démocraties occidentales[11]. Elles sont utilisées désormais par une part importante des citoyens pour échanger, s’informer et se divertir. Les effets, bénéfiques ou non, qu’elles peuvent avoir sur le fonctionnement de la démocratie sont l’objet d’un intense débat social, politique, juridique et scientifique. En raison du rôle qu’elles jouent dans le débat public, il se justifie à notre avis de ranger les plateformes numériques dans les « autres formes de diffusion » sur lesquelles la Confédération a la compétence de légiférer. A notre sens, cette compétence ne peut être délimitée par des critères techniques précis comme par exemple l’interactivité ou non de tel service en ligne[12]. Il n’y a rien d’exceptionnel au demeurant à ce qu’une compétence fédérale soit étendue à d’autres objets « du même genre qui n’étaient pas encore connus quand un domaine lui avait été attribué. »[13]

12

Pour autant, la compétence fédérale découlant de l’art. 93 al. 1 Cst. ne s’étend qu’aux moyens de diffusion publique de messages, et susceptibles par là-même d’avoir un impact sur l’opinion et la société. La communication privée entre deux ou plusieurs personnes, au moyen du courriels par exemple ou de tout autre mode de transmission relevant des télécommunications, est couverte par l’art. 92 Cst. relatif aux services postaux et aux télécommunications et non par l’art. 93. Le caractère public de la diffusion de messages doit se mesurer au regard des buts poursuivis par cette disposition, plutôt qu’à l’aune de critères techniques. L’influence que peut exercer tel ou tel format de diffusion sur le débat public et la formation de l’opinion importent bien davantage que le nombre d’abonnés à un page Facebook ou un compte Twitter, ou de membres d’un groupe de discussion sur WhatsApp. La compétence fédérale doit être considérée comme établie à l’égard de tout moyen de communication publique numérique susceptible d’avoir une certaine audience et dès lors une influence sur le public[14].

13

La compétence fédérale établie par l’art. 93 Cst. est souvent décrite comme exclusive[15]. Nous ne pensons pas qu’elle doive être considérée comme telle. Les compétences fédérales exclusives – soit celles qui éliminent toute compétence cantonale dès leur inscription dans la Constitution et avant même que la Confédération en ait fait usage – sont rares. Elles remontent pour la plupart à la création de l’Etat fédéral et étaient nécessaires à son édification: armée, politique étrangère, monnaie, etc[16]. Ce n’est le cas ni de la radio ni de la télévision. Le fait que les cantons n’aient pas légiféré dans le domaine de la radiodiffusion avant l’intervention de la Confédération ne prouve pas que la compétence fédérale en la matière soit exclusive. La naissance de la radio en Suisse fut d’ailleurs le fruit d’initiatives tout d’abord locales et non nationales ; la première émission de radio dans le pays fut diffusée à Lausanne en 1922 et c’est dans cette ville aussi que fut créée la première société locale de radiodiffusion en Suisse[17]. La question n’a pas qu’une portée académique. Il n’est pas indifférent aujourd’hui de savoir si les cantons conservent une compétence dans des domaines relevant de l’art. 93 que la Confédération n’aurait pas réglementés – ou ne réglementerait plus. Nous estimons que tel est le cas[18].

14

La radio, la télévision et les autres formes de diffusion ne sont pas des tâches étatiques et ne peuvent le devenir. L’art. 93 Cst. permet à la Confédération de légiférer, pas de produire elle-même des programmes ni de diffuser de l’information journalistique à travers ses propres canaux. La liberté des médias garantie par l’art. 17 Cst. oblige à prendre l’art. 93 al. 1 à la lettre : l’Etat fédéral doit se limiter à légiférer, il ne peut pas faire davantage[19]. Bien entendu, la Confédération a le droit, et même le devoir, d’informer sur ses propres activités ; il s’agit toutefois d’autre chose et la base constitutionnelle n’est pas la même[20].

2. Le mandat de la radio et de la télévision (art. 93 al. 2 Cst.)

a) Asymétrie des al. 1 et 2

15

Si la Confédération est à notre avis compétente pour légiférer en matière de moyens de communication numériques, cela ne veut pas dire qu’elle puisse impartir à tous les acteurs du domaine le « mandat » prévu à l’art. 93 al. 2 Cst. Il existe en effet une différence fondamentale entre l’alinéa premier et les alinéas suivant du même article. Le mandat de prestation prévu à l’art. 93 al. 2 Cst. ne concerne, si l’on s’en tient à la lettre du texte constitutionnel, que la radio et la télévision et non les « autres formes de diffusion de productions et d’informations ressortissant aux télécommunications publiques ».

16

Cette asymétrie entre la compétence et le mandat était déjà présente à l’art. 55bis aCst. Dans son message aux Chambres de 1981, le Conseil fédéral avait expressément souligné que le mandat de la radio et de la télévision ne s’appliquait pas aux autres formes de diffusion sur lesquelles la Confédération recevait pourtant la compétence de légiférer[21]. La doctrine reste partagée, aujourd’hui, sur la portée de cette exclusion, et la question se recoupe bien sûr avec celle de la compétence fédérale en matière de médias numériques exposée plus haut. Une partie des auteurs rejettent purement et simplement toute extension du mandat de prestation de l’art. 93 al. 2 Cst. à d’autres médias que la radio et la télévision[22]. D’autres admettent au contraire que, si le législateur est tenu de confier le mandat de prestation prévu par l’art. 93 Cst. à la radio et à la télévision, il aurait le pouvoir de l’étendre en partie moins aux formes de diffusion prévues à l’al. 1[23].

17

La réglementation de la radio et de la télévision a créé un statut juridique spécial, distinct de celui de la presse écrite, laquelle n’est soumise qu’au droit commun, civil, pénal, commercial, etc. Il existe donc, en droit suisse, deux régimes fondamentalement différents du point de vue constitutionnel. Certes, la radio et la télévision sont protégées par la liberté des médias de l’art. 17 Cst. au même titre que la presse écrite. Mais la liberté de la presse et celle de la radio et de la télévision n’ont en réalité ni la même signification ni la même portée. La liberté de la radio et de la télévision n’est pas, selon l’expression de Denis Barrelet[24], « une liberté classique ». La radio et la télévision ont en effet été soumises dès leurs commencements à une intervention des pouvoirs publics et à une réglementation de leurs activités dont la presse n’a jamais connu l’équivalent.

18

Le principe même d’un mandat de prestation assignant aux médias des obligations de contenu est incompatible avec la liberté de la presse dans son acception classique, caractérisée, de manière prépondérante, par un devoir de non-ingérence de l’Etat[25]. Aubert/Mahon le soulignent à juste titre : « L’idée que le constituant doit impartir un mandat aux diffuseurs de la radiotélévision, alors qu’il ne viendrait à personne l’idée qu’il en donne un aux éditeurs de la presse écrite [c’est nous qui soulignons], vient de ce que, pendant longtemps, ces diffuseurs étaient, pour des raisons techniques, peu nombreux, qu’ils ne paraissaient pas pouvoir, par le simple jeu du marché, assurer le pluralisme nécessaire aux libertés d’expression et d’information et qu’il fallait donc suppléer cette lacune par un régime de législation matérielle. »[26] Les mêmes auteurs relèvent que si le mandat devait être rédigé « aujourd’hui » – c’est-à-dire en 2002 –, il le serait sans doute différemment : les raisons techniques qui avaient pu le justifier par le passé se sont effacées au moins en partie, les programmes étrangers de télévision sont devenus infiniment plus accessibles, etc. L’arrivée du web et des réseaux sociaux renforce encore à notre avis le caractère partiellement anachronique du mandat de l’art. 93 al. 2, fondé sur une distinction entre presse écrite et médias audiovisuels qui a perdu sa raison d’être.

b) Portée restrictive du mandat de l’al. 2

19

La question de savoir si ce mandat peut malgré tout être étendu à d’autres formes de diffusion que la radio et la télévision appelle les observations suivantes. En ce qui concerne la radio et la télévision, le mandat constitutionnel est à notre sens impératif pour le législateur fédéral. Celui-ci est tenu d’adopter les mesures propres à le concrétiser, du moins tant que les conditions du marché qui le justifient perdurent – et leur péjoration ces dernières années n’en annoncent nullement la disparition, bien au contraire. En ce sens, on peut dire que la Constitution, à travers l’art. 93 al. 2, garantit l’existence de la radio et de la télévision en Suisse et que les éléments fondamentaux du mandat – formation et développement culturel, libre formation de l’opinion grâce à une présentation fidèle des événements et au reflet équitable de la diversité des opinions – forment ce que l’Etat fédéral considère comme un minimum indispensable au bon fonctionnement du débat démocratique en Suisse. Le mandat doit pouvoir s’appliquer à la radio et à la télévision indépendamment du support de diffusion ; sous certaines conditions, il doit donc être étendu à des services diffusés exclusivement en ligne (par exemple : Swissinfo et les « autres services journalistiques » de la SSR prévus par l’art. 25 LRTV)[27].

20

Quant à l’extension de tout ou partie du mandat de l’art. 93 al. 2 Cst. à d’autres acteurs du débat public en ligne, elle n’est à notre avis guère envisageable, sous quelques réserves que nous verrons plus loin. Les raisons qui justifient une interprétation large de la compétence fédérale pour légiférer sur les « autres formes de diffusion » ne se retrouvent pas ici. En particulier, la liberté des médias garantie par l’art. 17 Cst. empêche de soumettre à un mandat de prestation l’offre en ligne de la presse imprimée[28]. Tout particulièrement à l’ère numérique, il importe de maintenir une séparation rigoureuse entre le statut de la radio et de la télévision encadré par l’art. 93 Cst. et celui des autres médias qui, eux, doivent évoluer exclusivement dans un environnement balisé par les libertés de communication des art. 16 et 17 Cst. et par les standards internationaux pertinents, en particulier l’art. 10 de la Convention européenne des droits de l’homme. La solution contraire entraînerait un bouleversement du cadre juridique actuel. Elle déboucherait surtout sur une absurdité: la plupart des rédactions de la presse écrite ont en effet adopté le principe du « digital first » et demandent en règle générale à leurs journalistes de concevoir leurs sujets de manière à ce que ceux-ci puissent être diffusés d’abord sur le web ; soumettre la production d’un même sujet à des régimes constitutionnels différents selon qu’il est publié sur le site web ou dans les éditions imprimées du même média n’aurait rigoureusement aucun sens.

21

Pour d’évidentes raisons, l’art, 93 al. 2 Cst. ne fournit pas de modèle viable pour une régulation des réseaux sociaux et des moteurs de recherche. Cette disposition, et avant elle l’art. 55bis aCst, a été conçue pour s’appliquer à des entreprises de médias classiques basées en Suisse, soumises à la loi suisse, et organisées pour produire leurs programmes sous leur propre responsabilité en donnant des directives à leurs équipes – journalistes professionnels, animateurs, réalisateurs, techniciens, etc. C’est dans ce contexte-là qu’un mandat de prestation prend son sens. Le mandat de la radio et de la télévision ne s’est d’ailleurs jamais appliqué qu’aux diffuseurs suisses et non aux diffuseurs étrangers, et a donc laissé de fait hors de toute régulation par le droit suisse une part déterminante des médias audiovisuels écoutés et regardés dans ce pays. Les réseaux sociaux et les moteurs de recherche, eux, ne sont en rien comparables à des diffuseurs suisses. Ils ne sont pas basés en Suisse et publient non leurs propres contenus, mais des contenus générés par les utilisateurs eux-mêmes (réseaux sociaux) ou des tiers (moteurs de recherche), auxquels ils n’ont aucun pouvoir, et aucune légitimité, pour adresser des directives éditoriales. S’il faut donc envisager une régulation de ces nouveaux médias, ce doit être sur des bases tout autres que celles qui ont été créées pour la radio et la télévision.

22

Les raisons qui précèdent amènent certes à une réponse plus nuancée s’agissant des plateformes de services de streaming en ligne. Dans les faits, ces plateformes proposent une offre de même nature, pour une bonne part, que les chaînes de télévision (films et documentaires). Elles apparaissent donc comme de quasi-diffuseurs, à cette différence près que leurs services ne sont pas diffusés de manière linéaire – comme un programme classique – mais exclusivement à la demande.

23

Ces similarités ont amené le Conseil fédéral, dans son « Message culture » pour la période 2021-2024 mis en consultation le 29 mai 2019[29], à proposer d’imposer aux plateformes de services de streaming les mêmes mesures de soutien et d’encouragement en faveur du cinéma suisse et européen que celles auxquelles sont astreints les diffuseurs télévisuels classiques (principalement : quotas de diffusion et affectation d’une part des recettes brutes au cinéma suisse, art. 7 LRTV). Ces obligations devraient être inscrites dans la loi sur le cinéma. De telles mesures, le Conseil fédéral le souligne, vont dans le même sens que la récente révision de la directive européenne relative à la fourniture de services de médias audiovisuels (dite directive SMA)[30]. Dans ses recommandations publiées le 30 janvier 2020, la Commission fédérale des médias a elle aussi demandé que les plateformes de streaming soient soumises aux mêmes règles que les diffuseurs en matière de cinéma[31].

24

Le gouvernement ne discute pas de la base constitutionnelle des mesures qu’il propose. Il se contente de mentionner les art. 71 et 93 Cst. – ceux-là même sur lesquels se fonde la loi sur le cinéma. S’agissant de l’art. 93 Cst., le Conseil fédéral ne précise pas s’il se prévaut exclusivement de la norme de compétence de l’al. 1 ou aussi du mandat de l’al. 2. Pour nous, le législateur est compétent au regard de l’al. 1 pour légiférer sur les services de streaming en ligne – à supposer que la soumission de ces services au droit suisse soit possible ; il ne nous paraît pas certain en revanche que les mesures proposées relèvent de l’art. 93 al. 2 Cst. et non, plus simplement, du seul art. 71 Cst.

25

En résumé, le mandat de l’art. 93 al. 2 Cst. ne peut pas de notre point de vue être étendu aux plateformes numériques telles que les réseaux sociaux, les moteurs de recherche, les forums de discussions en ligne, les sites participatifs et de partage. Seuls, éventuellement, des acteurs tels que les fournisseurs de services de streaming pourraient être soumis à certaines obligations spécifiques en raison de la position qu’ils occupent, de plus en plus comparable aux chaînes de télévision. Pour le reste, dans la perspective défendue ici, les libertés « classiques » de communication consacrées par les art. 16 et 17 Cst. constituent le seul cadre de référence possible pour une régulation des nouveaux médias, à l’exclusion de l’art. 93 al. 2 Cst. L’existence d’un éventuel « devoir de protection » (Schutzpflicht) obligeant l’Etat à prendre des mesures actives, notamment pour garantir le droit des citoyens à disposer d’une information diversifiée et pertinente, ne peut dès lors reposer que sur les art. 16 et 17 Cst. ; nous y reviendront plus loin[32].

26

En dépit de cette conclusion, nous sommes parfaitement conscient qu’à l’heure actuelle, la distinction qui prévalu jusqu’ici dans la Constitution entre la radio et la télévision d’un côté et le reste des médias de l’autre a perdu une bonne partie sinon toute sa pertinence. La convergence technologique a rendu cette dualité obsolète. Mais les bases constitutionnelles, pour être changées, doivent faire l’objet d’une révision formelle.

3. La liberté d’opinion, d’information et des médias (art. 16 et 17 Cst.)

a) Libertés de communication et nouveaux médias

27

Au contraire de la Convention européenne des droits de l’homme qui ne connaît qu’une seule disposition couvrant toutes les libertés de communication (art. 10), la Constitution fédérale distingue la liberté d’opinion et d’information (art. 16) et la liberté des médias (art. 17). La liberté des médias, à son tour, couvre trois domaines différents : la presse écrite, la radio et la télévision, ainsi que les « autres formes de diffusion de productions et d’informations ressortissant aux télécommunications publiques ». La formulation utilisée ici est identique à celle de l’art. 93 al. 1 Cst. et doit aussi être comprise largement : nous renvoyons à nos explications ci-dessus[33].

28

Il peut être difficile de déterminer si tel ou tel mode d’expression numérique relève de la liberté des médias de l’art. 17 ou de la liberté d’opinion et d’information de l’art. 16. La diffusion de contenus journalistiques sur le web par les médias « classiques » (presse, radio, télévision), ne soulève guère de difficultés. Ces contenus ne changent pas de nature du seul fait qu’ils sont publiés sur un support numérique. La diffusion sur le web et les réseaux sociaux de textes, d’images, de vidéos ou de podcasts par un média d’information écrit ou audiovisuel relève donc sans conteste de la liberté des médias. Les interventions personnelles de journalistes de ces médias sur les réseaux sociaux, du moins lorsqu’elles apparaissent en lien manifeste avec la qualité professionnelle de leurs auteurs, sont à notre avis également couvertes par l’art. 17 Cst. et non l’art. 16.

29

La question est plus délicate lorsqu’une publication régulière sur le web, tel un blog, ou une présence active sur les réseaux sociaux ne sont pas le fait d’un professionnel de l’information travaillant au sein d’un média « classique ». On n’aura certes aucune hésitation à ranger sous la protection de la simple liberté d’opinion et non de celle des médias les innombrables contenus « postés » par des internautes sans ambition particulière[34]. Certains cas restent pourtant difficiles à départager. Sans entrer ici dans une casuistique qui sortirait du cadre de cette étude, nous mentionnerons une prise de position récente du Conseil suisse de la presse qui a cherché à délimiter ce qui relève de l’acte journalistique et donc de la déontologie professionnelle y relative, et ce qui ne peut et même ne doit pas y être rattaché[35]. Les réflexions qui y sont développées constituent un détour utile pour distinguer le domaine de protection spécifique de la liberté des médias par rapport à la simple liberté d’expression. Le Conseil de la presse y a précisé que sa compétence se limitait aux publications résultant d’un travail journalistique, par quoi il faut entendre « une activité qui se donne pour but, en toute indépendance, la recherche, la récolte et le choix d’informations, leur mise en forme de manière compréhensible pour le public, leur interprétation et leur commentaire dans une publication liée à l’actualité »[36]. En sont exclus « les contenus de pure propagande, tout comme (…) en principe les publications de partis politiques, d’organisations économiques ou d’associations lorsque le contenu litigieux reflète des préoccupations militantes ou idéologiques sans souci d’indépendance ou de pluralisme. »[37]

30

S’agissant non plus des contenus créés par les utilisateurs mais des plateformes numériques elles-mêmes, elles peuvent à notre avis se réclamer des libertés de communication et pas seulement de la liberté économique, du moins lorsque la distribution de contenus auprès du public apparaît comme leur fonction prépondérante. Mais il faut alors se demander, là encore, si les plateformes ressortissent davantage à la liberté des médias de l’art. 17 Cst. ou à la liberté d’opinion et d’information de l’art. 16 Cst. Nous penchons plutôt pour la liberté des médias. Cette dernière est certes destinée à protéger d’abord les activités propres à un média journalistique. En particulier, le secret rédactionnel garanti par l’art. 17 al. 3 Cst. est si étroitement lié au rôle de « chien de garde » de la démocratie dévolu au journalisme qu’on verrait mal qu’il puisse protéger d’autres acteurs que des professionnels de l’information. C’est ainsi en tout cas que l’a compris le législateur fédéral en réservant la protection des sources aux « personnes qui, à titre professionnel, participent à la publication d’informations dans la partie rédactionnelle d’un média à caractère périodique et leurs auxiliaires » (art. 28a du Code pénal)[38]. Ni les utilisateurs des réseaux sociaux ni les plateformes numériques elles-mêmes ne bénéficient dès lors de cette protection spécifique. Pour le reste, plusieurs raisons militent à notre avis pour l’application de l’art. 17 plutôt que de l’art. 16 Cst. aux plateformes numériques. Le rôle qu’elles jouent dans l’accès à l’information, leur position de gatekeepers et leur fonction systémique dans le débat public en ligne plaident pour en faire des titulaires de la liberté des médias. Mais il faut insister sur un point fondamental : leur accorder le bénéfice de la liberté des médias ne revient en aucune manière à les considérer comme des éditeurs classiques de contenus. Nous verrons au contraire que leur reconnaître une responsabilité égale à celle des producteurs de contenus que sont les médias d’information peut être contraire aux libertés de communication[39].

31

A notre avis, les contenus produits par des robots et, de manière générale, la production automatisée de contenus, peuvent aussi, selon les circonstances, être protégés par les libertés de communication. Il n’y a pas raison de refuser le bénéfice de la liberté des médias aux articles de type journalistique produits par des procédés automatiques et déjà testés dans certaines publications[40]. Ces robots sont conçus et développés dans une démarche journalistique qui mérite d’être constitutionnellement protégée. Dans ce cas, ce n’est évidemment pas le robot lui-même qui pourra invoquer son droit fondamental, mais la personne physique ou morale qui l’utilise. La question se pose très différemment pour les robots engagés sur les réseaux sociaux afin d’influencer le public en le trompant sur le titulaire d’un compte. Il paraît impossible de mettre de tels contenus au bénéfice d’une liberté constitutionnelle, mais la réponse nous semble dépendre davantage de l’utilisation qui est faite d’un robot dans tel ou tel contexte que de la technique en elle-même. On ne peut pas exclure que dans certaines circonstances, notamment dans un régime oppressif ou lorsque la sécurité des locuteurs réels est en jeu, le recours à un robot apparaisse malgré tout légitime et mérite d’être protégée. Des mesures visant à restreindre voire empêcher l’utilisation abusive de robots sont de toute évidence compatibles avec les libertés de communication, mais, plutôt que de décréter que les contenus produits de manière automatisée ne peuvent en aucun cas en bénéficier, il nous semble qu’une pesée d’intérêt doit d’abord être opérée.

32

De la même manière, l’anonymat sur les plateformes est à notre avis également protégé par les libertés de communication. Il ne s’agit pas de nier les abus auxquels l’anonymat peut donner lieu, mais les autorités ne peuvent restreindre le droit de chacun de s’exprimer en protégeant son identité qu’aux conditions s’appliquant à toute restriction aux droits fondamentaux. Le Rapporteur spécial des Nations Unies pour la promotion et la protection de la liberté d’opinion et d’expression l’a souligné à juste titre dans son rapport à ce sujet de 2015 : l’interdiction de l’anonymat en ligne est en conflit avec le droit à la liberté d’expression[41].

b) La liberté de s’exprimer

33

Les libertés de communication dessinent un espace d’expression à la fois individuelle et collective, souverain, autonome et, dans son essence et son principe, non régulé par les pouvoirs publics. Cette souveraineté inaliénable des individus sur leur propre pensée constitue le fondement de toutes les libertés de communication. Il transparaît avec une grande force dans la jurisprudence de la Cour suprême des Etats-Unis : « First Amendment freedoms are most in danger when the government seeks to control thought or to justify its laws for that impermissible end. The right to think is the beginning of freedom, and speech must be protected from the government because speech is the beginning of thought.»[42]

34

Bien que l’on souligne souvent les différences entre les conceptions européenne et américaine du free speech – la seconde réputée plus étendue que la première –, la Cour européenne des droits de l’homme reconnaît néanmoins elle aussi l’importance toute particulière de la liberté d’expression. Selon une belle formule que l’on retrouve dans de nombreux arrêts des juges de Strasbourg, « La liberté d’expression constitue l’un des fondements essentiels d’une société démocratique, l’une des conditions primordiales de son progrès et de l’épanouissement de chacun. Sous réserve des restrictions mentionnées, notamment dans l’article 10 de la Convention européenne des droits de l’homme, elle vaut non seulement pour les informations ou les idées accueillies avec faveur, ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l’Etat ou une fraction quelconque de la population. Ainsi le veulent le pluralisme, la tolérance et l’esprit d’ouverture sans lesquels il n’y a pas de société démocratique. »[43]

35

Les libertés de communication sont l’expression d’un besoin fondamental de l’être humain de s’exprimer et par là d’être en relation avec ses semblables, condition première de l’épanouissement personnel de chacun. Elles sont en même temps partie intégrante de tout régime démocratique. Il n’y a pas en effet de vie démocratique possible dans un Etat qui n’assurerait pas la liberté d’expression de ses citoyens. Celle-ci est une condition nécessaire – mais certes non suffisante – du pluralisme social et de l’autonomie des individus et de la société civile par rapport à l’Etat[44].

36

Cette fonction démocratique est prépondérante dans la protection de la liberté des médias. Car ce n’est nullement le besoin de communiquer ou l’épanouissement personnel des journalistes eux-mêmes que protège la liberté des médias mais bien la fonction qu’ils remplissent au service de la société, leur contribution à la diffusion d’informations, d’idées et d’opinions – même les plus dérangeantes –, le rôle structurant qu’ils exercent dans le débat public, leur vocation critique à l’égard des pouvoirs publics. La Cour européenne des droits de l’homme et le Tribunal fédéral l’ont souligné chacun dans leur jurisprudence respective[45]. La fonction particulière des médias exige dès lors une pesée des intérêts spécifique et peut justifier une protection plus étendue que la liberté d’expression des simples particuliers[46]. Elle doit être entendue dans un sens très large. La critique d’art, le billet d’humeur, le sujet de société, le fait divers ou la chronique sportive relèvent en effet de la liberté des médias au même titre que le journalisme parlementaire, alors même qu’ils ne peuvent se réclamer du même rôle politique. La question est bien connue des éthiciens des médias : le droit du public à être renseigné dont se réclame le journalisme et qui sous-tend toute la déontologie professionnelle n’est pas seulement le droit du citoyen à être informé sur des objets politiques, même s’il s’agit là de l’une de ses composantes essentielles; c’est le droit de chacun d’être curieux de tout ce qui se dit et se pense autour de lui et qui peut contribuer à forger son regard sur la société qui l’entoure, sur les autres et sur lui-même[47].

c) La liberté de s’informer

37

Si la protection des émetteurs de messages, et notamment des médias, a été toujours été au premier plan, les destinataires de ces informations, soit le public, ont été peu à peu reconnus comme parties prenantes des libertés de communication. Aujourd’hui, le droit de recevoir des informations, de se les procurer librement et de se former, sur cette base, sa propre opinion, est une composante essentielle des libertés de communications. Consacré par l’art. 16 Cst., il est toutefois limité aux sources « généralement accessibles » et ne fonde pas le droit d’obtenir directement des informations de l’Etat.

38

Les pouvoirs publics ne peuvent ni empêcher ni gêner sans motif légitime l’accès de quiconque à l’information et aux opinions de son choix[48]. Partant, les autorités ne sauraient restreindre l’accès à internet et à l’ensemble des services disponibles sur le web, ni collectivement ni individuellement, à moins qu’une telle mesure réponde aux conditions ordinaires d’une restriction aux droits fondamentaux (art. 36 Cst.) Par services disponibles, il faut bien sûr entendre aussi les diverses plateformes numériques.

39

Mis en relation avec la liberté des médias, le droit de s’informer librement comprend le droit du public d’avoir accès aux médias de son choix. On peut supposer que ce droit suppose, dans les faits, une diversité suffisante de l’offre médiatique. Une défaillance grave du marché pourrait poser la question d’un éventuel « devoir de protection » de l’Etat[49]. Celui-ci se trouverait chargé d’y suppléer, mais une intervention des pouvoirs publics sur ce terrain est par nature délicate ; toute influence étatique sur les contenus produits par des médias soutenus est problématique[50].

d) Effets horizontaux et devoirs de protection de l’Etat

aa) En général
40

Les libertés de communication imposent d’abord à l’Etat de s’abstenir de toute ingérence injustifiée dans leur usage. Cette fonction dite défensive (Abwehrfunktion) des libertés de communication est historiquement première. Si elle demeure prépondérante, elle a fait place peu à peu à une autre dimension, importante, des droits fondamentaux. Aujourd’hui, ceux-ci n’ont plus seulement pour rôle d’empêcher l’Etat d’intervenir. Ils peuvent aussi l’amener, voire le contraindre à prendre des mesures actives, en particulier par la voie législative, pour garantir l’exercice effectif et vivant des droits fondamentaux, notamment lorsque cet exercice est menacé par d’autres particuliers. La doctrine parle alors respectivement d’effet horizontal indirect des droits fondamentaux, et de devoir de protection (Schutzpflicht) incombant à l’Etat.

41

Cette conception transparaît, en partie au moins, dans l’art. 35 Cst. On notera que le devoir de l’Etat d’agir pour protéger les droits fondamentaux ne crée à lui seul aucune compétence en faveur de la Confédération : une attribution spécifique de cette compétence par une autre règle constitutionnelle reste nécessaire. Aussi, on l’a vu, le législateur fédéral peut-il intervenir dans le domaine de la radio, de la télévision et des autres formes de diffusion ressortissant aux télécommunications publiques (art. 93 al.1 Cst.), mais il est dépourvu de toute compétence et de tout moyen d’action s’agissant de la presse imprimée[51].

42

C’est dans le souci de garantir que le public dispose d’une information pluraliste et fiable que l’effet horizontal des libertés de communication, respectivement le devoir de protection de l’Etat, sont le plus souvent invoqués. Dans sa jurisprudence relative à la radio et à la télévision, la Cour européenne des droits de l’homme a estimé que l’Etat ne peut se cantonner à un rôle purement passif en la matière. Selon elle, « l’exercice réel et effectif de la liberté d’expression ne dépend pas simplement du devoir de l’Etat de s’abstenir de toute ingérence, mais peut exiger qu’il prenne, en droit ou en pratique, des mesures positives de protection (…) Compte tenu de l’importance des enjeux dans le cadre de l’article 10, l’Etat doit être l’ultime garant du pluralisme (…) Dans le domaine de la diffusion audiovisuelle, ces principes imposent à l’Etat l’obligation de garantir d’une part l’accès du public, par l’intermédiaire de la télévision et de la radio, à des informations impartiales et exactes ainsi qu’à une pluralité d’opinions et de commentaires reflétant notamment la diversité des opinions politiques dans le pays, et d’autre part la protection des journalistes et des autres professionnels des médias audiovisuels contre les entraves à la communication de ces informations et commentaires.»[52] A l’occasion d’une autre affaire, elle a précisé que « dans un secteur aussi sensible que celui des médias audiovisuels, au devoir négatif de non-ingérence s’ajoute pour l’Etat l’obligation positive de mettre en place un cadre législatif et administratif approprié pour garantir un pluralisme effectif (paragraphe 130 ci-dessus). Cela est d’autant plus souhaitable lorsque, comme en l’espèce, le système audiovisuel national se caractérise par une situation de duopole. »[53]

43

Lorsque l’Etat a le devoir d’intervenir pour sauvegarder l’exercice des libertés de communication, il lui appartient de chercher à préserver ou à rétablir les conditions optimales permettant un débat public libre, ouvert et pluraliste. Le choix des moyens incombe toutefois au législateur dans les limites de ce qui est réalisable. Le plus souvent, le devoir de protection de l’Etat ne fait donc pas naître de droits individuels directement invocables en justice contre les autorités ou contre d’autres particuliers[54].

44

Une intervention étatique quelle qu’elle soit doit respecter les conditions ordinaires fixées à toute restriction aux droits fondamentaux. Comme l’a observé le Tribunal fédéral dans un autre contexte, un devoir de protection de l’Etat conçu de manière absolue porterait très vite atteinte à la liberté des uns au prétexte de sauvegarder celle des autres[55]. Un arbitrage doit donc être opéré, en particulier du point de vue de l’intérêt public et de la proportionnalité des mesures envisagées.

bb) Dans l’environnement numérique
45

Pour tous les Etats, la sauvegarde d’un débat public libre, pluraliste, ouvert et de qualité dans l’environnement numérique relève actuellement du défi. Les causes de perturbation sont en effet innombrables. Elles étaient résumées ainsi, dans un rapport de 2016, par le Rapporteur spécial des Nations Unies pour la promotion et la protection du droit à la liberté d’opinion et d’expression :

Cependant, en dépit de l’évolution rapide des technologies, l’environnement numérique demeurera la cible des menaces qui continuent de peser sur la liberté d’opinion et d’expression. On peut notamment citer la mainmise, ou les tentatives de mainmise, des pouvoirs publics sur les sources d’information, qui passe par le recours à la censure des services et des infrastructures en ligne; les efforts considérables que déploient les entreprises pour promouvoir leurs produits et leurs services dans des milieux hostiles à la liberté d’expression; les manquements de nombreuses entreprises qui ne parviennent pas à concilier la promotion et la protection des droits, et la poursuite de leurs intérêts commerciaux; et, enfin, les exigences souvent contradictoires des individus qui veulent que les entités commerciales leur assurent non seulement sécurité mais aussi commodité, connectivité et accès à des communautés virtuelles[56].
46

Pour répondre à ces intérêts contradictoires, le même Rapporteur spécial a développé, au fil de ses interventions, une approche fondée sur le primat de la liberté d’expression, imposé aussi bien aux Etats qu’aux entreprises privées de l’industrie numérique. L’objectif est d’empêcher à la fois les gouvernements et les plateformes d’exercer une influence indue sur le débat public.

47

Dans cette optique, les Etats ont « l’obligation de mettre en place un environnement favorable à la liberté d’expression et de protéger son exercice. En vertu du devoir qui leur incombe de garantir la liberté d’expression, les Etats sont notamment tenus de promouvoir la diversité et l’indépendance des médias et l’accès à l’information. »[57] La liberté d’expression en ligne doit être soumise aux mêmes standards qu’hors ligne[58]. Quant aux plateformes, s’il est vrai qu’elles ne sont pas directement soumises aux normes protégeant les droits de l’homme, elles ont « pour responsabilité, à l’échelle mondiale, d’éviter d’avoir des incidences négatives sur les droits de l’homme ou d’y contribuer par leurs propres activités et doivent remédier à ces incidences lorsqu’elles se produisent. »[59]

48

Cette conception s’appuie notamment sur les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme. Approuvé par le Conseil des droits de l’homme dans sa résolution 17/4 du 16 juin 2011[60], ce texte souligne que les entreprises ont l’obligation de respecter les droits de l’homme, et que les Etats sont tenus de leur imposer ce respect.

49

On trouve une approche comparable dans la Recommandation du Comité des Ministres du Conseil de l’Europe « relative aux rôles et aux responsabilités des intermédiaires d’internet ». Adoptée le 7 mars 2018, elle reconnaît que les Etats ont « l’obligation positive de protéger les droits de l’homme et de créer un environnement sûr permettant à chacun de participer au débat public (…) Cette obligation positive de garantir l’exercice et la jouissance des droits et des libertés comprend, en raison des effets horizontaux des droits de l’homme, la protection des individus contre les actes de tiers privés, en s’assurant du respect des cadres législatifs et réglementaires applicables.  Il est par ailleurs indispensable de mettre en place des garanties procédurales et de faciliter l’accès à des recours effectifs à la fois contre les Etats et contre les intermédiaires au regard des services en question. »[61]

cc) Appréciation
50

Il résulte de ce qui précède que l’Etat doit veiller à ce que les libertés de communication puissent s’exercer aussi pleinement en ligne qu’hors ligne. Il doit veiller à ce que cet exercice ne soit menacé ni par les ingérences des pouvoirs publics ni par les distorsions que pourraient lui infliger les plateformes voire certains procédés frauduleux des utilisateurs eux-mêmes.

51

Ce devoir de protection doit être vu plutôt comme un objectif que l’Etat doit poursuivre que comme un mécanisme déclenchant l’obligation pour les autorités de prendre des mesures précises dès lors qu’un certain seuil de danger serait dépassé. Ce seuil est au demeurant difficile à définir. Il dépend d’analyses relevant d’autres disciplines que la science juridique et qui, pour l’heure, ne semblent pas donner de résultats univoques[62].

52

Les pouvoirs publics restent libres du choix des moyens pour parvenir à cet objectif. Mais le but d’une intervention des pouvoirs publics doit être clairement circonscrit et toutes les mesures envisagées doivent s’y rattacher et y concourir. Ce but, selon nous, est à la fois défini et limité par les libertés de communication elles-mêmes. Un éventuel devoir de protection de l’Etat doit avoir pour but un exercice des libertés de communication aussi étendu que possible. Il ne peut servir de prétexte à des mesures visant à limiter, orienter ou administrer le débat public. Nous partageons pleinement, sur ce point, l’approche développée par le Rapporteur spécial des Nations unies dans ses rapports évoqués plus haut et nous pensons qu’elle correspond au cadre constitutionnel suisse en vigueur. Les diverses régulations envisageables du débat public en ligne doivent avoir pour finalité ultime une protection optimale des libertés de communication à la fois contre les ingérences de l’Etat et contre les atteintes que peuvent leur porter les acteurs privés des technologies numériques eux-mêmes.

53

A notre avis, un devoir de protection de l’Etat ne permet pas d’étendre, en tout ou en partie, le mandat de la radio et de la télévision de l’art. 93 al. 2 Cst. à d’autres médias ou d’autres acteurs du débat public[63]. Nous l’avons dit plus haut, une telle extension risquerait de vider de leur substance les libertés de communication des entités non soumises à un mandat de prestation[64]. Pour imposer à ces entités des restrictions allant au-delà de ce qu’autorisent les art. 16, 17 voire 34 Cst., une révision de ces dispositions serait nécessaire.

54

Ce qui vient d’être dit n’enlève rien à la nécessité d’un renforcement substantiel du soutien étatique aux médias, le recul de la diversité de la presse étant aussi alarmant qu’incontestable. Mais ce soutien doit rester autant que possible déconnecté de tout mandat de prestation défini par des obligations de contenu calquées sur l’art. 93 al. 2 Cst. Nous y reviendrons[65].

4. La liberté de vote (art. 34 al. 2 Cst.)

55

L’art. 34 Cst. protège l’exercice des droits politiques et, plus particulièrement, « la libre formation de l’opinion des citoyens et des citoyennes et l’expression fidèle et sûre de leur volonté » (art. 34 al. 2 Cst.) Cette disposition reprend une jurisprudence de longue date du Tribunal fédéral selon laquelle tout citoyen a droit à ce que le résultat d’un scrutin ne soit reconnu que s’il est l’expression fidèle et sûre de la volonté librement exprimée du corps électoral[66]. Parmi les diverses exigences découlant de ce principe, on ne s’attachera ici qu’à celles qui touchent à l’information du citoyen avant une votation ou une élection.

56

Pour que la volonté des citoyens puisse s’exprimer librement et que le scrutin en soit l’expression fidèle et sûre, les autorités doivent tout d’abord, s’agissant d’une votation, informer le public de manière objective sur l’objet du scrutin et ses enjeux. Elles peuvent prendre position mais doivent donner une place équitable aux arguments de leurs adversaires. Elles sont certes en droit s’engager dans la campagne en donnant par exemple des interviews aux médias et en participant à des émissions ou des conférences, mais doivent veiller à rester objectives. Elles ne peuvent recourir à des moyens disproportionnés, notamment sur le plan financier, par à rapport à ceux dont disposent leurs adversaires. Des moyens illicites ou occultes, tels des « caisses noires »[67], sont prohibés. Lorsque l’un ou l’autre de ces principes est violé, le Tribunal fédéral n’annule la votation que si les manquements constatés étaient de nature à modifier l’issue du scrutin[68].

57

Le devoir de réserve des autorités avant une votation repose sur l’idée que le scrutin est l’affaire des citoyens eux-mêmes, de la société civile et des forces qui la traversent et non de l’Etat lui-même. Dans cette optique, les partis et les organisations politiques, syndicales, économiques ou associatives et bien sûr les particuliers doivent être libres de s’engager autant qu’ils le veulent pour faire triompher leurs vues, en mobilisant tous les moyens dont ils disposent, notamment financiers. La parole des acteurs privés avant un scrutin est dès lors entièrement libre. Dans les limites du droit civil et du droit pénal, les particuliers n’ont aucun devoir d’objectivité ni de véracité. Dans ce domaine précis, la mauvaise foi et le mensonge ne sont en rien contraires au droit : ils sont couverts par la liberté d’expression[69].

58

La jurisprudence a cependant admis, bien avant que l’on ne parle de fake news, que les autorités ne pouvaient rester sans réagir lorsque que des informations grossièrement mensongères sont diffusées et qu’elles sont de nature à influer sur l’issue du scrutin. Dans ce cas, les autorités peuvent et même doivent sortir de la réserve qui leur est impartie pour détromper les électeurs[70]. A défaut de rectification de leur part, un scrutin qui aurait été manifestement influencé par de fausses informations émanant de particuliers doit être annulé[71].

59

L’art. 34 al. 2 Cst. et la jurisprudence qui découle du principe de la liberté de vote fournissent une base constitutionnelle adéquate justifiant une intervention des autorités pour contrer la désinformation en ligne dans le contexte d’un scrutin populaire[72]. Dans son rapport de 2017 revenant sur une éventuelle réglementation des réseaux sociaux, le Conseil fédéral a toutefois renoncé à envisager des mesures, faute, à son avis, d’un recul suffisant pour apprécier l’ampleur du phénomène[73]. Le gouvernement s’en est remis en attendant à l’autorégulation des plateformes elles-mêmes, tout en assurant, comme il se doit, qu’il « observe attentivement l’évolution de la situation au niveau national et international »[74]. Nous verrons plus loin quelles mesures pourraient ou devraient malgré tout être envisagées[75].

5. Compétence de l’Etat de destination ?

60

Toute régulation de la communication publique en ligne soulève la question de la compétence des autorités suisses pour l’édicter et du niveau adéquat – national, européen, international – pour y procéder. Les principales plateformes numériques ont en effet leur siège à l’étranger, et n’administrent même pas nécessairement en Suisse les données de leurs utilisateurs suisses[76]. Nous nous limiterons sur ce point aux brèves observations suivantes.

61

Le cadre juridique pertinent en matière numérique au sein de l’Union européenne est fondé sur le principe du pays d’origine, soit celui dans lequel l’exploitant a son siège social. La législation allemande, controversée, édictée pour lutter contre les contenus illicites en ligne (« Netzwerkdurchsetzungsgesetz », en abrégé NetzDG) a été critiquée notamment parce qu’elle ne semblait pas respecter de ce principe[77]. Celui-ci n’est d’ailleurs pas incontesté. Dans le rapport de mission sur la régulation des réseaux sociaux remis au Secrétariat d’Etat français du numérique en mai 2019, les auteurs déploraient que « la capacité de chacun des Etats membres, hormis celui qui accueille le service, à faire face aux éventuels errements d’un acteur global se trouve drastiquement réduite par cette articulation européenne, accroissant ainsi le risque politique dans le pays de destination (dans lequel le dommage se produit). » Ils proposaient dès lors de trouver une nouvelle articulation introduisant le principe du « pays de destination »[78].

62

L’objet de cette étude n’est pas de trancher cette question. La dimension internationale de la diffusion numérique est bien sûr de nature à limiter les possibilités d’action au niveau national. Cela étant, la compétence des Etats nationaux qui entendent réguler certains usages des plateformes numériques sur leur territoire n’est de loin pas dénuée de fondement ni d’intérêt, comme le relèvent les auteurs du rapport de mission français cité précédemment.

III. Principes constitutionnels applicables à une régulation du débat public en ligne

1. Les risques et les chances du débat public en ligne

a) Les risques

63

Plusieurs événements ont été la source, ces dernières années, d’un vaste questionnement sur les dangers des plateformes numériques pour le débat public et la démocratie. Aujourd’hui, un « techno-pessimisme » a succédé au « techno-optimisme » qui avait accompagné l’apparition des réseaux sociaux[79]. De l’élection de Barack Obama en 2008 aux Printemps arabes de 2011, ceux-ci avaient paru être les instruments d’un possible renouveau démocratique. Quelques années à peine plus tard, en 2016, la perspective s’inversait totalement et ils se retrouvaient en posture d’accusés pour avoir, peut-être, favorisé le Brexit et l’élection de Donald Trump. On découvrait alors avec effarement qu’une petite entreprise à peu près inconnue jusqu’alors, Cambridge Analytica, avait été en mesure de piller les données personnelles de millions de clients de Facebook pour les utiliser, au profit du candidat républicain en campagne, dans une opération de ciblage des électeurs aussi redoutable que choquante.

64

Les réseaux sociaux ont alors définitivement perdu leur innocence. Leur emprise possible sur l’opinion publique, démultipliée par leur audience – spécialement auprès d’un public jeune – est devenue une préoccupation majeure. Leur fonctionnement est apparu suspect. Les algorithmes utilisés pour sélectionner et hiérarchiser les contenus en fonction de chaque utilisateur ont été accusés de créer des « bulles de filtre » et des « chambres d’écho » enfermant les internautes dans un entre-soi nuisible à la démocratie.

65

Inséparable de l’opacité des algorithmes, la prolifération d’informations truquées – les fameuses fake news – inquiète aujourd’hui aussi bien la société civile que les gouvernements. L’utilisation, lors de l’élection présidentielle américaine de 2016, de « social bots », ces robots capables de générer des messages et d’imiter le comportement humain sur les réseaux sociaux, est venue renforcer ces craintes, tout comme le recours massif aux messageries en ligne telles que WhatsApp pendant les élections brésiliennes de 2018[80]. Les réseaux sociaux risquent-ils donc de saper le fondement des sociétés démocratiques et du vivre ensemble ?

66

Une certaine retenue s’impose au juriste en la matière. Car la science juridique ne dispose pas des compétences nécessaires pour apprécier ces risques par elle-même. Au surplus, les spécialistes des domaines concernés (technologies, science des médias, science politique, etc.) ne s’accordent pas tous entre eux. En particulier, la réalité et l’impact de phénomènes tels que les bulles de filtre et les chambres d’écho ne semblent pas pouvoir être considérées comme établis à l’heure actuelle[81]. Quant aux nombreuses études consacrées aux fake news et aux robots sociaux, elles n’ont pas pu démontrer de manière univoque l’influence réelle de ces messages truqués sur les électeurs et a fortiori sur l’issue d’un scrutin[82]. Lors de la présidentielle de 2016 aux Etats-Unis, les fausses informations devraient leur « viralité » à une très petite proportion de l’électorat, fortement politisé à droite de l’échiquier politique et composé pour la plus grande part de personnes âgées de plus de 65 ans[83].

67

De nombreux Etats n’en ont pas moins réagi de manière déterminée. Sous pression, les plateformes ont elles aussi tenté d’empoigner les problèmes en multipliant les mesures ou les annonces de mesures, ou les deux. Mais ces réactions, nous le verrons en détail plus loin, comportent en elles-mêmes des dangers pour les libertés de communication. Les lois adoptées pour lutter contre les fake news par la Russie, Singapour, le Qatar et bien d’autres encore, mettent gravement en danger les fondements de la liberté d’expression. Des lois discutables sur certains points ont également été adoptées par certaines des démocraties de la « vieille Europe », la France[84] et l’Allemagne[85].

b) Les chances

68

Ce qui précède n’enlève rien au fait que les nouveaux moyens de débattre en ligne ont suscité de notoires avancées démocratiques[86]. Ils ont rendu possible une expression directe d’aspirations individuelles ou collectives qui n’avaient pas disposé jusque-là des moyens adéquats pour se faire entendre, ou ne s’y étaient pas reconnus, et se trouvaient de fait exclues du débat. Les médias sociaux ont ainsi permis l’émergence de communautés s’identifiant à travers la communication en ligne. Ils peuvent aussi également un rôle fondamental dans des contextes troublés, notamment pour entrer en contact avec des personnes touchées par des catastrophes ou des conflits armés[87].

69

Ils sont également devenus un vecteur incontournable de l’action politique et militante partout dans le monde. En Suisse, les partis et les organisations politiques, syndicales ou associatives les ont pleinement intégrés à leur action. Une part substantielle de leur communication s’y déroule désormais, spécialement avant un scrutin populaire. La capacité de l’un des camps à mobiliser ses partisans à travers les réseaux sociaux peut se révéler décisive. L’exemple le plus souvent cité à cet égard est l’intense activité déployée sur les réseaux sociaux par le mouvement « Opération Libero » dans les semaines précédant le vote du 28 février 2016 sur l’initiative dite de « mise en œuvre » de l’UDC. De manière générale, les plateformes numériques représentent un potentiel intéressant pour l’exercice des droits politiques. Des plateformes numériques telles que wemakeit.ch ont facilité la récolte de fonds pour des campagnes de votations[88].

70

Pour les mouvements dépourvus de relais au sein des structures politiques traditionnelles, les réseaux sociaux revêtent une importance vitale. Les auteurs de l’initiative « pour un revenu de base inconditionnel » ont ainsi réussi à assurer une présence considérable de leurs thèses grâce à une activité extrêmement soutenue sur les réseaux sociaux. Ils n’ont pas réussi toutefois à dépasser un peu plus d’un cinquième des voix lors du scrutin « in the real life » : le peuple qui vote ne recouvre que très imparfaitement celui qui s’exprime sur les réseaux.

2. La sauvegarde du pluralisme sur les plateformes

a) Une position dominante problématique

71

Le pluralisme et la diversité des informations, des idées et des opinions qui peuvent être librement échangées par l’ensemble des citoyens sont consubstantiels au bon fonctionnement d’une société démocratique. Il incombe dès lors à l’Etat d’établir un ordre juridique garantissant et favorisant les libertés de communication et donc, à travers elles, l’expression pluraliste et autant que possible sans filtre de la société civile[89].

72

Plus la communication est libre, plus elle sera diversifiée. Dans la conception traditionnelle des libertés de communication, c’est la liberté dont bénéficie l’expression publique qui en garantit le pluralisme. C’est la garantie de cette liberté qui permet à la diversité de la société elle-même de s’y refléter. Inversement, le pluralisme est menacé lorsque la liberté de communiquer de l’ensemble des acteurs n’est plus, pour une raison ou une autre, pleinement assurée.

73

A cet égard, la position dominante des plateformes numériques, et singulièrement des réseaux sociaux, ne peut qu’interroger. Un tout petit nombre d’acteurs mondiaux dominent le marché, à la notable exception de la Chine, et ils sont tous américains. Or les plateformes jouent de fait un rôle central dans l’exercice des libertés de communication, celles d’émettre des informations et des opinions comme celles d’en recevoir.

74

Il n’est pas exagéré de dire que les réseaux sociaux sont devenus systémiques, au sens que la science économique donne à certains acteurs financiers particulièrement importants pour le fonctionnement d’une économie donnée. Une part non négligeable de l’information et de la communication des citoyens passe désormais par eux. Ils se sont même intercalés, dans une certaine mesure tout au moins, entre les médias classiques et leurs publics, nous l’avons dit plus haut. Si, pour l’essentiel, ils ne sont pas producteurs eux-mêmes d’information, ils jouent désormais un rôle clé dans la sélection et la distribution de l’information vers le public.

75

Les réseaux sociaux, les moteurs de recherche et les plateformes de partage de contenus audios ou vidéos ont ceci de particulier qu’ils véhiculent du contenu généré par leurs utilisateurs ou par des tiers mais non par leurs soins. La question de la diversité s’y pose dès lors tout autrement que pour les médias traditionnels. Sur les réseaux sociaux, la pluralité des utilisateurs et donc des sources de contenus est une donnée difficilement contestable, même si elle ne doit pas être considérée comme le reflet fidèle de la diversité de la société civile elle-même. En revanche, les distorsions qui peuvent y être apportées par les algorithmes comme par certains procédés des utilisateurs eux-mêmes (contenus sponsorisés, faux comptes, robots, etc.) soulèvent des questions délicates. La diversité des utilisateurs ne dit rien au surplus de la fiabilité et de la qualité des contenus échangés et donc de leur aptitude à offrir aux citoyens l’information à la fois diversifiée et pertinente dont la démocratie a besoin.

76

Il faut écarter d’emblée l’idée d’étendre purement et simplement, pour l’appliquer aux plateformes, l’obligation de « refléter équitablement la diversité des opinions » imposée à la radio et à la télévision par l’art. 93 al. 2 Cst. Nous avons vu les raisons qui, à notre avis, empêchent cette disposition de s’appliquer en tant que telle à d’autres médias, et plus spécifiquement aux nouveaux médias[90]. Nous n’y reviendrons pas. Les mêmes remarques valent dès lors aussi pour les « mesures contre la concentration des médias » prévues aux art. 74 et 75 LRTV pour lutter contre les diffuseurs abusant de leur position dominante. La transposition de ces dispositions aux plateformes numériques, ou du moins à certaines d’entre elles, n’est guère réalisable. Le fait qu’elles soient restées sans réel effet jusqu’ici n’incite pas non plus à voir en elles de véritables solutions[91].

77

L’art. 93 al. 1 Cst. permet certes au législateur fédéral de prendre des mesures pour sauvegarder le pluralisme sur les plateformes numériques. Mais ces mesures, à notre avis, ne peuvent aller au-delà ce qu’autorisent, voire imposent, les art. 16 et 17 Cst. et, dans le contexte d’un scrutin populaire, l’art. 34 Cst. Il faut toutefois réserver le cas limite des plateformes de service de streaming que certaines raisons, nous l’avons vu, peuvent pousser à assimiler à des diffuseurs traditionnels.

78

Dans ce cadre, d’éventuelles mesures de sauvegarde du pluralisme sur les plateformes ne devraient avoir pour but que la préservation d’un exercice aussi étendu que possible des libertés de communication en ligne. Elles ne doivent pas servir de prétexte à limiter ou orienter le débat public lui-même. La liberté d’expression apparaissant comme le moyen le plus adéquat pour garantir le pluralisme des opinions – jusqu’aux plus singulières – dont vit la démocratie, ce pluralisme peut, voire doit être protégé en ligne aussi bien contre les distorsions que pourraient lui infliger les plateformes elles-mêmes ou certains de leurs utilisateurs que contre les réglementations étatiques risquant d’en fausser la libre expression.

b) Transparence des algorithmes

79

Dans ce débat, les questions concernant le fonctionnement et l’impact des algorithmes viennent en première ligne. Compte tenu de leur impact sur les contenus offerts aux utilisateurs et dès lors de leurs effets sur l’information du public, leur absence totale de transparence est problématique. Les distorsions qu’ils peuvent produire, les discriminations qu’ils induisent ne sont pas détectables, du moins par le grand public. Les algorithmes ne sont pas neutres : leurs décisions sont personnalisées et ne peuvent pas être considérées comme découlant d’une structure mathématique fonctionnant de manière identique en tout temps et en tout lieu[92]. Les utilisateurs et le public en général n’ont aucun moyen de savoir selon quels critères et pourquoi les contenus qui leur parviennent ont été sélectionnés plutôt que d’autres.

80

Dans ce contexte, les propositions visant à imposer aux plateformes un minimum de transparence sur le fonctionnement de leurs algorithmes, qu’ils soient dits de « curation », de « recommandation » ou d’« indexation », se sont récemment multipliées[93]. Cette obligation de transparence peut revêtir diverses formes. Elle doit d’abord permettre à l’utilisateur de comprendre, autant que possible, les choix de l’algorithme qui le concerne par des indications publiées en bonne place et dans une forme accessible à quiconque. Mais les plateformes pourraient aussi être contraintes de fournir des explications plus poussées à des experts mandatés par les Etats et chargés à leur tour de rendre compte de leurs constatations aux autorités et au grand public.

81

Une telle obligation de transparence peut également s’étendre aux procédures, automatisées ou non, de modération des contenus, c’est-à-dire aux conditions auxquelles les plateformes décident de maintenir ou de supprimer des contenus sur la base notamment des signalements reçus, ainsi qu’aux méthodes de « fact-checking » utilisées. Le sponsoring de contenus devrait également être rendu transparent. Il conviendrait par exemple d’exiger une distinction claire et reconnaissable pour le public entre les contenus sponsorisés et ceux qui ne le sont pas. Il ne s’agirait nullement d’une application de la règle identique figurant dans la loi sur la radio et la télévision (art. 9 LRTV), ni d’une extension de la déontologie journalistique qui impose également une séparation des contenus rédactionnels et publicitaires[94], mais bien d’une règle propre à la régulation des plateformes. Ces dernières devraient également être amenées à rendre transparents les dispositifs par lesquels elles combattent les faux comptes et les robots.

82

Des réglementations de ce type reposeraient sur le modèle de la co-régulation : les règles étatiques ne s’appliquent pas directement aux algorithmes mais imposent aux plateformes de rendre des comptes sur le fonctionnement de ceux-ci et d’entrer dans un processus de dialogue avec le public ou avec l’Etat lui-même. A mi-chemin entre une autorégulation qui apparaît comme très largement insuffisante pour répondre aux défis posés au débat public et à la démocratie et une réglementation étatique directe des algorithmes, la voie médiane de la transparence imposée paraît prometteuse.

83

De telles obligations de transparence imposées aux plateformes sont conformes, pensons-nous, aux exigences constitutionnelles de l’intérêt public et de la proportionnalité. Elles doivent permettre aux utilisateurs, au public en général et aux autorités d’apprécier les effets possibles des algorithmes et de développer une réflexion critique à leur sujet. Elles sont un préalable nécessaire pour préserver la confiance indispensable des utilisateurs et pour garantir qu’un débat public sain et viable puisse se développer, en particulier dans un pays recourant à la démocratie directe comme la Suisse. On relèvera néanmoins que certaines études incitent à ne pas surestimer les résultats à attendre d’une transparence imposée aux plateformes : basé sur l’intelligence artificielle et le machine learning, le fonctionnement des algorithmes tendrait en effet à devenir autonome et à échapper à toute explication compréhensible par l’homme[95].

c) Non-discrimination, neutralité et accès à une information fiable

84

Les obligations de transparence qui viennent d’être évoquées ne touchent pas à la configuration des algorithmes eux-mêmes. Dans les lignes qui suivent, nous tenterons de déterminer s’il est possible et souhaitable de les encadrer par des règles minimales de fond applicables à leur fonctionnement.

85

Le « Medienstaatsvertrag » adopté par les Länder, qui donne sa base légale à l’audiovisuel en Allemagne, a franchi ce pas récemment, à l’occasion de la révision de ce texte en 2019[96]. La version aujourd’hui en vigueur impose aux principales plateformes numériques non seulement de rendre transparent le fonctionnement de leurs algorithmes, mais aussi de respecter un principe de non-discrimination des contenus (§94). Cette obligation, qui ne s’applique toutefois qu’aux contenus journalistiques, est violée lorsqu’une discrimination systématique – qu’elle soit positive ou négative – peut être établie par rapport aux critères que la plateforme a l’obligation de rendre transparents (§93).

86

Pour sa part, le « Partenariat pour l’information et la démocratie » élaboré par un groupe d’Etats à l’initiative de l’organisation non gouvernementale Reporters sans frontières et signé par la Suisse en 2019[97], reconnaît que l’accès du public à une information fiable doit être « protégé et promu » sur les plateformes, « afin de permettre la participation à la vie démocratique et l’exercice de la liberté d’opinion et d’expression ». L’information peut être reconnue comme fiable au sens de ce texte « dans la mesure où sa collecte, son traitement et sa diffusion sont libres, indépendants, divers et fondés sur le croisement de plusieurs sources, dans un paysage médiatique pluraliste où les faits peuvent donner lieu à des interprétations et à des points de vue variés. » Les plateformes sont invitées en conséquence à « mettre en place des mécanismes visant à promouvoir l’accès à une information fiable et à lutter contre la propagation d’informations erronées ou manipulatrices destinées à tromper le public. »

87

La protection et la promotion de l’accès du public à une information fiable sur les plateformes rejoint les préoccupations, bien connues en Suisse, qui sous-tendent une éventuelle extension de l’aide étatique aux médias. Il s’agit dans les deux cas de reconnaître et de défendre le rôle du journalisme reconnu comme essentiel pour le bon fonctionnement de la démocratie[98].

88

Les signataires du Partenariat pour l’information et la démocratie entendent aller plus loin encore en demandant aux plateformes de respecter un principe de « neutralité politique, idéologique et religieuse ». Une telle neutralité des plateformes, que l’on peut rapprocher de la neutralité d’internet en général, est l’expression à notre sens la plus aboutie de l’exigence de pluralisme du débat public et de l’information en ligne. Les moyens juridiques et techniques de l’imposer restent à déterminer. Il conviendrait en particulier d’examiner si l’autorégulation offre suffisamment de garanties, ou si une co-régulation, voire une régulation étatique doivent être envisagées.

89

C’est à ce principe général de neutralité des plateformes que peut être rattaché en particulier l’encadrement de la publicité politique et de toutes les formes de contenus sponsorisés en ligne. De manière générale, pour être neutres, les plateformes devraient aussi limiter les procédés par lesquels, des faux comptes aux robots, la diffusion d’un contenu peut être artificiellement et lourdement altérée à l’insu des utilisateurs.

3. La modération des contenus par les plateformes

a) En général

90

Gouvernées par des algorithmes ou non, les politiques de modération des contenus appliquées par les plateformes ont pour objet le contrôle, qui peut déboucher sur le retrait de certaines publications des utilisateurs, jugées non compatibles avec les conditions générales fixées par l’exploitant. Ces politiques sont susceptibles d’affecter gravement le droit des utilisateurs de s’exprimer librement. Pratiquées à large échelle, elles peuvent discriminer des catégories entières de contenus et affecter ainsi la libre formation de l’opinion. Il convient donc d’examiner leur compatibilité avec les libertés de communication garanties par la Constitution et par le droit international pertinent.

91

Sociétés commerciales de droit privé, les plateformes ne sont pas, du point de vue du droit suisse, directement astreintes au respect des libertés fondamentales. Elles ne peuvent l’être qu’indirectement, notamment si la loi leur impose des obligations à cet égard (art. 35 al. 3 Cst.) Il est largement admis que l’Etat ne peut, en la matière, se cantonner à un rôle purement passif. En raison de son devoir de protection à l’égard des droits fondamentaux, il lui incombe, nous l’avons vu, d’instaurer un ordre juridique favorable aux libertés de communication en prenant le cas échéant des mesures actives. Une intervention de l’Etat doit cependant respecter les conditions ordinaires fixées à toute restriction aux droits fondamentaux[99].

92

Selon la Recommandation CM/Rec (2018)2 du Comité des Ministres aux Etats membres du Conseil de l’Europe déjà évoquée, « Les intermédiaires d’internet devraient, dans toutes leurs actions, respecter les droits de l’homme et les libertés fondamentales qui sont reconnus internationalement à leurs utilisateurs et aux autres parties concernées par leurs activités. Cette responsabilité, conforme aux Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies, existe indépendamment de la capacité ou de la volonté des États de satisfaire à leurs propres obligations en matière de droits de l’homme. »[100]

93

La même Recommandation demande que « Toute ingérence des intermédiaires dans les communications et les échanges libres et ouverts d’informations et d’idées, par un moyen automatisé ou non, devrait reposer sur une politique claire et transparente et être limitée à des buts légitimes spécifiques, par exemple empêcher l’accès à des contenus déterminés comme illégaux soit par la loi soit par une autorité judiciaire ou par une autre instance administrative indépendante dont les décisions font l’objet d’un contrôle juridictionnel, ou conformément à leurs propres politiques de contrôle des contenus ou codes d’éthique, qui peuvent comprendre des mécanismes d’alerte. »[101]

94

Dans son rapport A/HRC/38/35 du 6 avril 2018, le rapporteur spécial de l’ONU pour la promotion et la protection de la liberté d’opinion et d’expression appelle les plateformes en ligne à « faire directement figurer dans leurs conditions d’utilisation et dans leurs « normes applicables à la communauté » les principes pertinents du droit des droits de l’homme selon lesquels les mesures ayant des incidences sur les contenus doivent être conformes aux principes de légalité, de nécessité et de légitimité par lesquels les États sont liés lorsqu’ils réglementent la liberté d’expression. »[102]

b) Les régulations possibles

95

Force est de constater que les politiques de modération des contenus des plateformes ont reposé jusqu’ici, le plus souvent, sur des critères peu clairs et imprécis. Il en résulte une grande opacité pour les utilisateurs et pour le public, incompatible avec les principes qui viennent d’être rappelés. Ces critères devraient être transparents en même temps que conformes aux exigences découlant des libertés de communication, notamment quant à leur précision. Ils devraient de préférence être déterminés par un mécanisme de co-régulation. Nous avons déjà indiqué pourquoi la simple transposition des normes de contenu forgées pour les médias audiovisuels traditionnels pour les imposer aux plateformes n’était pas envisageable[103]. Mais l’autorégulation des plateformes n’a pas donné jusqu’ici des résultats probants malgré l’ampleur des efforts consentis, et ne semble donc pas non plus la voie à suivre[104]. Les divers standards et règles d’utilisation dont elles se sont dotées n’ont pas permis d’assurer une transparence suffisante sur les processus réels de modération. Le « tribunal d’appel » institué par Facebook pour statuer sur les contestations des utilisateurs dont les contenus auraient été retirés a suscité bien des controverses[105]. L’avenir dira si la désignation à la tête de cette entité, fin 2019, de l’ancien directeur de l’organisation non gouvernementale « Article 19 », qui s’est distinguée par sa défense sans compromis d’une liberté d’expression aussi étendue que possible, suffira à assurer la crédibilité de cette « cour Facebook »[106].

96

Il convient, au passage, de dissiper une illusion : la solution ne passe pas non plus par la transposition aux plateformes en ligne des règles éthiques dont les journalistes se sont dotés, en Suisse, en Europe et ailleurs. Ces normes émanent de la profession elle-même. Elles en déterminent les bonnes pratiques au service des valeurs et avec les limites que le journalisme se donne à lui-même et qu’exprime le Préambule de la Déclaration de Munich de 1971, modèle de la Déclaration des devoirs et des droits des journalistes suisses :

« Le droit à l’information, à la libre expression et à la critique est une des libertés fondamentales de tout être humain. 
De ce droit du public de connaître les faits et les opinions procède l’ensemble des devoirs et des droits des journalistes.
La responsabilité des journalistes vis-à-vis du public prime toute autre responsabilité, en particulier à l’égard de leurs employeurs et des pouvoirs publics.
La mission d’information comporte nécessairement des limites que les journalistes eux-mêmes s’imposent spontanément. Tel est l’objet de la déclaration des devoirs formulés ici. »
97

Une telle charte éthique suppose une communauté relativement organisée disposant d’une forte identité professionnelle et capable d’en respecter spontanément ou d’en faire respecter par elle-même les règles et l’esprit. C’est l’évidence que les plateformes numériques ne sont en aucune manière en mesure d’imposer le respect de normes comparables à leurs utilisateurs. Ceux-ci ne sont en effet reliés par aucune identité commune, aucun objectif commun, aucune valeur commune. L’autorégulation des plateformes ne peut donc que suivre un chemin qui lui est propre. Cela n’exclut nullement bien sûr que sur un point ou un autre, des solutions convergentes puissent émerger.

4. La régulation des contenus par des normes étatiques

a) En général

98

La prolifération des fake news, des discours de haine, de vidéos violentes ou pédopornographiques sur le web a amené les Etats à intervenir pour tenter d’endiguer ce flot aux proportions il est vrai inquiétantes. Lorsqu’ils légifèrent à cette fin, les Etats sont tenus de respecter les droits fondamentaux. De nombreux pays ont cependant adopté des réglementations discutables, voire gravement contraires aux droits fondamentaux, au point de constituer aujourd’hui, nous l’avons dit, l’un des principaux facteurs de danger pour les libertés de communication[107].

99

Pour être conformes aux libertés fondamentales, les lois visant à prohiber ou à faire supprimer des contenus en ligne doivent s’en tenir aux conditions ordinaires justifiant toute restriction aux droits fondamentaux. Le caractère difficilement contrôlable du web et la prolifération galopante de contenus douteux ne justifient pas de s’affranchir de ce cadre. Les Etats ne devraient en particulier pas définir les contenus jugés illicites par des termes vagues dont la portée peut varier du tout au tout en fonction du contexte[108]. De tels critères ne permettent pas de distinguer avec suffisamment de précision les contenus licites de ceux qui ne le sont pas. Le but poursuivi par la prohibition de certains contenus doit en outre être strictement légitime au sens de l’art. 10 § 2 CEDH et donc apparaître nécessaire « (…), dans une société démocratique, à la sécurité nationale, à l’intégrité territoriale ou à la sûreté publique, à la défense de l’ordre et à la prévention du crime, à la protection de la santé ou de la morale, à la protection de la réputation ou des droits d’autrui, pour empêcher la divulgation d’informations confidentielles ou pour garantir l’autorité et l’impartialité du pouvoir judiciaire. »

100

Les mesures prises ou envisagées pour lutter contre les fake news ou la « propagande mensongère » apparaissent souvent inconciliables avec les principes que nous venons d’évoquer. La définition de ce qu’est une information trompeuse peut s’avérer beaucoup plus délicate qu’il n’y paraît de prime abord, en particulier dans le contexte de l’affrontement politique. Il faut aussi rappeler que le bénéfice des libertés de communication ne peut pas être accordé ou refusé selon que l’autorité reconnaît ou non la véracité d’un message. La solution contraire évoque de trop près le « Ministère de la vérité » de 1984 pour être recevable. Elle constituerait un recul historique majeur. Au demeurant, on sait hélas que l’Etat lui-même est loin d’être un modèle en matière de véracité de l’information, même dans les Etats démocratiques : la célèbre affaire des Pentagon Papers le rappelle avec éclat. Bien entendu, ce que nous venons de dire ne vaut pas pour les propos mensongers qui sont attentatoires à la réputation d’autrui : dans cas, le propos est illicite parce qu’il porte atteinte aux droits d’un tiers et que, n’étant pas véridique, il ne mérite pas d’être protégé. En revanche, celui qui entend proclamer que la terre est plate est assurément couvert par la liberté d’expression en dépit de la fausseté de l’affirmation.

101

L’incrimination, légitime, des « discours de haine » ne doit pas devenir non plus le prétexte pour bannir les opinions acérées, en particulier quand elles sont dirigées contre les autorités et les forces politiques dominantes. Pour être légitime, l’incrimination des « discours de haine » doit correspondre à des contenus définis par la loi avec précision, répondant en tous points aux exigences constitutionnelles rappelées plus haut.

b) La responsabilité des plateformes pour les contenus générés par les utilisateurs

102

L’un des points les plus délicats en matière de régulation des contenus en ligne a trait aux mécanismes juridiques par lesquels les plateformes ou d’autres fournisseurs de service internet peuvent être tenus pour responsables des contenus que leurs utilisateurs ont produits ou partagés grâce à leurs services. Selon l’étendue et les modalités de cette responsabilité, les plateformes pourront être poussées à supprimer de leur propre initiative des contenus licites, ou qui ne sont que potentiellement illicites, à seule fin de ne pas risquer d’engager leur responsabilité. Une responsabilité de ce type érige les plateformes en véritables éditeurs, pour des contenus dont ils ne sont les auteurs à aucun titre, et les place en position de censeurs planétaires. Elle peut conduire à des résultats extrêmement dommageables pour la liberté d’expression et celle des médias notamment dans des pays qui pourchassent les journalistes et criminalisent les opposants politiques ou certaines minorités.

103

Ce risque de censure privée, largement identifié[109], doit inciter le législateur, tout comme la jurisprudence, à se montrer particulièrement circonspects. Compte tenu de la position dominante des plateformes, de leur rôle « systémique » dans la structuration du débat public, une éventuelle responsabilité pénale ou civile des plateformes comme des autres intermédiaires doit être strictement encadrée. Les effets néfastes pour les libertés de communication qui viennent d’être évoqués et que les pouvoirs publics ont le devoir de combattre doivent être évités.

104

Le régime de responsabilité choisi doit respecter les conditions habituelles fixées à toute restriction aux droits fondamentaux. Les critères de l’intérêt public et de la proportionnalité revêtent une importance primordiale. Ils doivent conduire à une appréciation différente selon le type de contenus diffusés.

105

Les contenus illicites quel que soit le contexte, tels la pédopornographie et l’incitation ou l’apologie de la violence, justifient un régime de responsabilité plus strict pouvant notamment contraindre les plateformes (comme les autres intermédiaires du web) à une réaction appropriée dès lors qu’un signalement leur est adressé.

106

Les contenus qui ne sont que potentiellement illicites et qui nécessitent une appréciation souvent délicate pour être qualifiés de contraires au droit, ne sauraient être soumis à un régime de responsabilité identique. Parmi les principaux contenus de cette seconde catégorie, on peut citer les atteintes pénales ou civiles portées aux droits et à la réputation d’autrui, la divulgation de secrets officiels ainsi que les délits par la répression desquels les Etats peuvent chercher à empêcher des critiques légitimes. Dans toutes ces hypothèses, la responsabilité pénale et civile des plateformes et des intermédiaires devrait ne pouvoir être engagée qu’à des conditions particulièrement restrictives, voire, de préférence, être exclue. Les procédures dites de « notification et retrait » (notice and take down) sont discutables à cet égard. Appliquées à des contenus diffusés par des médias d’information et mettant par exemple en cause des personnalités publiques dans le contexte d’un débat d’intérêt général, elles ne nous paraissent pas acceptables[110].

107

Un recours judiciaire effectif doit être garanti dans tous les cas. Dans un domaine aussi sensible, une procédure accélérée – telle que la prévoit par exemple la loi française du 22 décembre 2018 relative à la lutte contre la manipulation de l’information[111]n’offre pas de garanties suffisantes.

5. Des règles spéciales pour les votations et les élections ?

108

Toutes les mesures examinées jusqu’ici, en particulier les règles de transparence des algorithmes, trouvent une justification renforcée dès lors que l’on se trouve en période de scrutin populaire. L’influence inadmissible que de fausses informations diffusées en ligne avant un scrutin pourrait avoir sur les électeurs est d’ailleurs à l’origine de la loi française du 22 décembre 2018 que nous venons d’évoquer[112]. La question spécifique de la communication en ligne dans un contexte électoral fait également l’objet d’une étude du Rapporteur spécial des Nations Unies pour la promotion et la protection du droit à la liberté d’opinion et d’expression[113].

109

En vertu de l’art. 34 al. 2 Cst., les pouvoirs publics en Suisse sont, rappelons-le, les garants de l’intégrité d’un scrutin. Selon la jurisprudence, il leur appartient le cas échéant de rectifier les informations grossièrement mensongères que des particuliers répandraient avant une élection ou une votation, si celles-ci sont de nature à influer sur l’issue du scrutin[114].

110

Lorsque la capacité des électeurs de se former librement une opinion paraît altérée par la diffusion massive de fausses informations sur les réseaux sociaux, les autorités pourraient donc être contraintes d’intervenir pour les démentir. L’examen des modalités d’une telle intervention dépasserait le cadre de cette étude mais, pour être efficaces, les autorités devraient probablement réagir à travers les réseaux eux-mêmes.

111

Il faut pourtant le souligner : la jurisprudence relative à l’art. 34 Cst. ne contraint en aucune manière les autorités à censurer les fausses informations diffusées dans une campagne précédant un scrutin ou à en empêcher la diffusion[115]. Il s’agit exclusivement d’une obligation de détromper le citoyen afin de garantir la libre formation de l’opinion. Ce dispositif a été pensé, nous l’avons dit, à une époque bien antérieure aux réseaux sociaux et aux fake news. Il présente aujourd’hui un intérêt particulier du fait qu’il pourrait offrir une réponse originale et pleinement respectueuse de la liberté d’expression aux défis de l’ère numérique. Son efficacité pour répliquer à une campagne d’intoxication sur les réseaux sociaux alimentée par des robots reste toutefois à démontrer.

112

Faudrait-il alors aller plus loin ? La loi française du 22 décembre 2018 prévoit, on l’a dit, une procédure judiciaire de référé pour contraindre les plateformes à retirer des fausses informations diffusées dans une période de trois mois précédant un scrutin et susceptibles d’en altérer l’intégrité. Le Conseil constitutionnel français a jugé ce dispositif compatible avec la liberté d’expression, sous réserve que le caractère inexact ou trompeur des affirmations en cause soit manifeste et que le risque d’altération de l’intégrité du scrutin le soit aussi[116]. Il reste discutable à nos yeux de confier à un juge le soin de trancher sur l’inexactitude, même manifeste, d’une information dans le contexte d’un affrontement électoral ou d’un référendum – les cas où les allégations en cause contiendraient des attaques personnelles étant de toute manière déjà couverts par les règles ordinaires du droit civil ou du droit pénal.

113

L’utilisation de moyens illicites par des particuliers n’est pas admise et peut entraîner l’invalidation du scrutin si elle paraît avoir influencé l’issue du scrutin[117]. Le recours à des robots sociaux ou à de faux comptes dans le contexte d’une votation ou d’une élection n’est toutefois pas en soi illicite en l’état actuel du droit suisse[118]. La question doit néanmoins être posée de savoir si de tels moyens de campagne devraient être prohibés et si les plateformes devraient se voir obligées d’empêcher, dans la mesure de ce qui peut techniquement être exigé d’elles, l’utilisation de tels moyens. La réponse, à notre sens, est affirmative. La libre formation de l’opinion en vue d’un scrutin paraît incompatible avec l’engagement de robots ou de faux comptes. Il existe ici un intérêt public prépondérant justifiant l’interdiction de ces procédés, découlant des principes garantis par l’art. 34 al. 2 Cst. Une telle mesure, si elle est techniquement réalisable, nous paraît compatible avec les libertés de communication. Une base légale spécifique est cependant nécessaire.

114

La modération des contenus par les plateformes dans le contexte d’un vote populaire pourrait également faire l’objet de règles spécifiques. Il conviendrait de s’assurer de la neutralité des plateformes en leur imposant notamment une transparence complète sur les éventuelles conditions de retrait d’un contenu. Celles-ci devraient être définies avec une prudence particulière et leur application pouvoir faire l’objet d’un recours judiciaire effectif, selon les modalités décrites plus haut. Il doit en aller de même des contenus sponsorisés et de la publicité politique en ligne lorsqu’ils se rapportent à un scrutin populaire. Aux Etats-Unis, la politique de Facebook consistant à renoncer à modérer de telles publicités a soulevé un tollé dans certains milieux, en particulier au sein du Parti démocrate. Nous pensons au contraire que c’est une politique défendable. Il n’appartient pas en effet à un acteur privé, qui plus est en position systémique, de se faire l’arbitre de la publicité politique admissible. Ce rôle, le cas échéant, doit être dévolu à des normes étatiques, dans le respect des libertés publiques et sous le contrôle d’un juge. Il faut en tout cas exiger des plateformes une transparence adéquate sur les conditions auxquelles elles acceptent ou non de la publicité et des contenus sponsorisés dans le domaine politique. Là aussi, des mécanismes de contestation des décisions de retrait devraient être prévus et pouvoir être portés devant un juge.

IV. Mesures en faveur de la diversité des médias d’information

1. Une presse fragilisée dans l’environnement numérique

115

Cette étude serait incomplète si elle laissait de côté la situation des médias d’information dans l’environnement numérique et le rôle qu’ils peuvent, ou ne peuvent plus, ou devraient jouer malgré tout dans le débat public. Si les journaux, la radio et la télévision ont longtemps occupé la scène principale où pouvait se tenir et s’organiser le débat public, ils ont aujourd’hui perdu, on le sait, cette enviable position de gatekeepers. Leur modèle économique a été bouleversé par le développement du web, mais leur fonction dans la structuration du débat public et politique apparaît toujours aussi fondamentale, même davantage que par le passé. Aujourd’hui, comme le souligne le Rapporteur spécial des Nations unies pour la promotion et la protection du droit à la liberté d’opinion et d’expression, « en vertu du devoir qui leur incombe de garantir la liberté d’expression, les Etats sont notamment tenus de promouvoir la diversité et l’indépendance des médias et l’accès à l’information »[119]

116

Les lignes qui suivent ont pour objet de mettre en relief les principes constitutionnels qui justifient une intervention des pouvoirs publics, le cas échéant, pour soutenir les médias d’information dans cette mission, et d’en déterminer les conditions. Nous commencerons par un bref aperçu de la situation de la presse en Suisse.

117

La Suisse reste aujourd’hui encore l’un des pays possédant le plus grand nombre de quotidiens par habitants. Pour autant, la crise qui frappe les médias d’information depuis la révolution numérique n’y est pas moins douloureuse qu’ailleurs, au contraire. Car elle touche un point particulièrement sensible dans un pays fortement décentralisé, de taille modeste et divisé qui plus est en quatre communautés linguistiques : la diversité de la presse et la densité de journaux par habitants s’y expliquent donc par des raisons spécifiques et jouent un rôle démocratique, social et culturel de première importance. En Suisse, pas de presse « nationale » comme en connaît la France, pas de grands journaux qui peuvent être lus dans tout le pays comme en Allemagne – alors même que l’exercice permanent de la démocratie directe requiert une presse présente partout dans le débat.

118

Les recettes publicitaires encaissées par les titres de la presse suisse ont diminué de moitié depuis 2008, alors qu’elles représentaient traditionnellement leur source principale de revenus. Dans le même temps, la publicité diffusée par le canal de Google et de Facebook s’est envolée. Dans ce contexte difficile, les disparitions de journaux se poursuivent. Si les audiences restent stables, notamment grâce au numérique, les tirages sont en constant recul. La concentration des titres est toujours plus marquée. Les quatre premiers groupes de presse en Suisse détenaient 54% des parts du marché en 2005, mais 81% en 2017[120].

119

Le pluralisme de l’offre rédactionnelle de la presse suisse s’en ressent. Les rédactions dites « manteaux » (Mantel-Redaktionen) se multiplient. De telles coopérations éditoriales entraînent une unification toujours plus marquée des contenus alors même que les titres restent formellement distincts[121]. Cet affaiblissement de la diversité de l’offre médiatique représente, selon l’édition 2019 de l’annuaire « Qualité des médias », un recul de cette dernière en Suisse. Pour autant, dans sa dernière étude réalisée sur mandat de l’Office fédéral de la communication, Publicom arrive à la conclusion que le paysage médiatique suisse reste diversifié et assume largement son rôle de garant de la diversité des opinions[122]. Des indices laissent toutefois penser que la tendance à la concentration peut s’accélérer et entraîner des conséquences potentiellement néfastes.[123] On assiste déjà à la création d’un duopole SSR-Tamedia dans certaines régions[124]. Pour garantir au mieux la diversité du paysage médiatique, l’aide aux médias devrait dès lors faire l’objet, selon cette étude, d’un réexamen[125].

120

La couverture de l’actualité locale est particulièrement affectée. Le Conseil d’Etat vaudois l’a souligné dans son rapport accompagnant son projet de soutien à la diversité des médias présenté en janvier 2020. Pour lui, la diminution de la quantité et de la diversité des médias est incontestable. « En conséquence, dans plusieurs parties du canton, la production d’informations de proximité, portant sur des événements et des faits de portée locale, s’est considérablement réduite », écrit-il[126]. Le gouvernement vaudois redoute les conséquences d’une telle évolution sur la qualité du débat public et démocratique à l’échelon local. Il cite à cet égard l’étude de Kübler/Goodman montrant le lien entre la couverture médiatique de la politique locale et le taux de participation des électeurs aux scrutins populaires[127].

2. Droit à l’information, aide à la presse et liberté des médias

121

Les médias journalistiques sont un rouage essentiel de la démocratie. Le Tribunal fédéral comme la Cour européenne des droits de l’homme leur reconnaissent un rôle indispensable dans le débat public[128]. En relayant, en analysant et en critiquant l’action des pouvoirs publics, ils permettent aux citoyens de se former une opinion et de participer pleinement à la vie démocratique. Cette fonction de relais constitue un élément-clé du droit de s’informer librement et par là-même de se former librement une opinion, partie intégrante des libertés de communication. Or, l’affaiblissement des médias traditionnels – de la presse écrite en particulier – consécutif à la révolution numérique menace le plein exercice de ce droit, en particulier, on vient de le voir, dans le domaine de l’information locale.

122

Le gouvernement vaudois rappelle que le droit du public à recevoir une information lui permettant de se former librement une opinion découle de l’art. 16 Cst. et qu’il est aussi protégé par l’art. 17 de la Constitution vaudoise[129]. Ce droit, à ses yeux, est désormais « fragilisé » dans le canton ; dès lors, la question de savoir comment le garantir « se pose avec une certaine acuité. »[130] Le diagnostic qu’il pose sur les effets de la transition numérique sur l’information du public mérite d’être retranscrit in extenso :

« A l’ère numérique, l’homogénéisation des contenus s’est fortement accrue et se lit à travers les sites d’information en ligne dont la redondance est aisément observable. L’un des atouts de la presse régionale et locale est, à l’évidence, la proximité et la création de contenus journalistiques originaux dont l’intérêt public apparaît d’emblée à l’utilisateur. Cette production journalistique se raréfie du fait des difficultés de financement par la publicité et de l’impossibilité de reporter l’entièreté des coûts sur les abonnés. Il existe un intérêt public prépondérant de ne pas laisser disparaître les rédactions de proximité, sur papier ou en ligne, puisqu’elles participent activement aux fondamentaux de transparence et de libre choix en matière d’information dans un système pluraliste et démocratique. »[131]
123

Les mesures de soutien en faveur des médias régionaux que propose le Conseil d’Etat vont de l’augmentation des dépenses publicitaires de l’Etat au soutien à la formation et à l’innovation, en passant par la création d’un kiosque virtuel regroupant l’offre des titres vaudois, le financement d’abonnements à tarifs préférentiels pour les jeunes et le soutien à l’agence de presse Keystone-ATS voire à une nouvelle agence de presse régionale[132].

124

Le canton de Vaud n’est pas le seul à estimer nécessaire un engagement des pouvoirs publics pour soutenir les médias locaux. La ville de Lausanne, le canton de Berne de même que le canton et la ville de Genève examinent également ou ont mis en place divers dispositifs allant dans la même direction[133].

125

Simultanément à l’abandon du projet de nouvelle loi sur les médias électroniques, le Conseil fédéral a annoncé, en 2019, diverses mesures fédérales d’aide aux médias. Il s’agirait d’une part de porter de 30 à 50 millions de francs par an la subvention de la Confédération accordée pour la distribution postale des journaux, et de l’autre de consacrer un montant qui devrait atteindre à terme 50 millions par année à une aide à des médias en ligne. Celle-ci serait réservée à des médias vendant leur contenu par abonnements et qui, parmi d’autres conditions, appliquent et respectent les standards journalistiques[134]. Le détail de ces mesures n’était pas encore connu au moment de la rédaction de cette étude. En l’absence de toute compétence de la Confédération en la matière, le Conseil fédéral ne pouvait pas cependant proposer une aide directe à la presse imprimée[135].

126

Les dispositifs de soutien aux médias doivent être soigneusement configurés pour ne pas porter une atteinte indue à leur liberté. La question est sensible. Elle l’est sans doute davantage lorsque l’aide est directe que lorsque celle-ci n’est qu’indirecte (rabais postaux, taux de TVA réduit, etc.) Dans son exposé des motifs déjà évoqué, le Conseil d’Etat vaudois le souligne d’ailleurs : les mesures de soutien qu’il préconise ont été pensées de manière à respecter « un principe fondamental : la liberté rédactionnelle et éditoriale des médias concernés. »[136]

127

L’aide apportée aux médias par les pouvoirs publics ne devrait pas permettre à ceux-ci d’exercer une influence sur les contenus publiés. Le contraire nous semble incompatible avec la liberté des médias garantie par l’art. 17 Cst[137]. S’agissant de l’aide directe, il est certes inévitable que le cercle des bénéficiaires soit défini par des critères portant sur le caractère journalistique des médias soutenus, et donc sur le contenu de ces médias. Mais ces critères devraient être aussi objectifs que possible et ne générer aucune influence sur la ligne rédactionnelle. Une aide apportée sous forme de publications de contenus conçus par les autorités ou d’un mandat de prestation donné à un média pour produire certains contenus devrait être évitée. De manière générale, l’aide aux médias devrait être indépendante du contenu. Pour les médias purement numériques, même s’ils entrent dans le champ de compétence défini par l’art. 93 al. 1 Cst, le mandat de l’art. 93 al. 2 Cst. ne peut servir de base à leur soutien[138].

V. 10 thèses

1. L’art. 93 al. 1 Cst. donne compétence à la Confédération pour légiférer sur les plateformes en ligne dès lors qu’une régulation nationale paraît pertinente.

2. L’art. 93 al. 2 Cst ne peut servir de base à une régulation des plateformes numériques, à l’exception peut-être des services en ligne de streaming à la demande.

3. Les art. 16, 17 et, dans le contexte d’un scrutin populaire, 34 al. 2 Cst. forment le cadre constitutionnel dans lequel une éventuelle régulation des plateformes peut s’inscrire. Un devoir de protection de l’Etat découlant de la Constitution ne peut justifier que des mesures compatibles avec ce cadre.

4. La liberté du débat public en favorise le pluralisme. L’Etat doit être considéré comme le garant du libre exercice des libertés de communication. Il lui incombe d’établir un ordre juridique propre à en favoriser une pratique effective et vivante. Les pouvoirs publics ne peuvent se désintéresser de la manière dont le pluralisme et l’intégrité de la communication sont assurées dans l’environnement numérique. Mais une régulation du débat public en ligne doit avoir pour but et pour limite une protection aussi étendue que possible des libertés de communication. Celles-ci doivent jouir en ligne du même standard de protection qu’hors ligne. Elles doivent être défendues aussi bien contre les ingérences de l’Etat que contre les distorsions qu’elles peuvent subir sur et par les plateformes numériques elles-mêmes.

5. Compte tenu de leur position dominante et de leur fonction systémique dans le débat public, les plateformes doivent être astreintes à assurer la transparence du fonctionnement de leurs algorithmes. Une telle mesure repose sur un intérêt public suffisant et est proportionnée à son but.

6. Un objectif plus ambitieux mais toujours conforme aux libertés de communication serait d’amener les plateformes à observer une neutralité politique, idéologique et religieuse, de la rendre transparente et vérifiable, et de promouvoir le droit à une information fiable en ligne. C’est à quoi tend le Pacte pour l’information et la démocratie auquel la Suisse a souscrit en 2019 avec une trentaine d’Etats et qui a été initié par Reporters sans frontières.

7. Les politiques de modération des contenus pratiquées par les plateformes peuvent mettre les libertés de communication en danger. Ces politiques doivent être encadrées par des normes de co-régulation afin que l’exercice de la liberté d’expression en ligne sous toutes ses formes soit sauvegardé.

8. Les normes étatiques peuvent elles aussi porter des atteintes graves aux libertés de communication en ligne et entraîner un risque important de censure privée de la part des plateformes. Elles doivent donc être configurées pour éviter ce risque. En particulier, elles doivent définir avec précision les contenus illicites en évitant les termes vagues se prêtant à des interprétations extensives. La responsabilité des plateformes pour les contenus générés par les utilisateurs ou par des tiers doit être soigneusement circonscrite de manière à ne pas encourager les plateformes à retirer des contenus licites ou qui ne sont que potentiellement illicites sans attendre la décision d’un juge.

9. L’ensemble des mesures envisagées pour réguler le débat public trouvent une légitimité particulière dans le contexte d’un scrutin populaire. Avant une votation ou une élection, les citoyens sont en droit de recevoir une information pertinente, fiable et pluraliste. Les pouvoirs publics sont garants que tel puisse être le cas dans le cadre d’un débat libre et ouvert. Les moyens d’empêcher le recours à des robots ou des faux comptes dans la période précédant un scrutin doivent être examinés et si possible appliqués, le cas échéant par des mesures de co-régulation.

10. Les médias d’information remplissent une fonction particulière dans le débat public, protégée par la Constitution et reconnue par la jurisprudence. Leur affaiblissement consécutif à la révolution numérique et au bouleversement de leur modèle économique traditionnel justifie un soutien renforcé de la part des pouvoirs publics. Ce soutien est d’autant plus nécessaire pour faire face à la crise de légitimité ouverte par les fake news et les discours de haine en ligne. Ce soutien doit toutefois respecter pleinement l’indépendance éditoriale des médias bénéficiaires. L’aide aux médias doit dès lors être strictement indépendante des contenus, de manière à éviter toute influence des autorités dans les choix éditoriaux des rédactions. L’intervention des pouvoirs publics ne devrait pas prendre la forme d’un mandat de prestation.

VI. Réponses aux questions posées par le mandant

1. Nach welchen Kriterien ist aus grundrechtlicher Sicht die Abgrenzung zwischen öffentlichem und privatem Diskurs vorzunehmen?

Les échanges privés et les échanges publics ne relèvent pas entièrement des mêmes dispositions constitutionnelles. La liberté des médias (art. 17) ainsi que l’article sur la radio-télévision (art. 93) supposent une diffusion publique de messages. La liberté d’opinion et d’information (art. 16) protège en revanche aussi les échanges privés entre deux ou plusieurs personnes. La communication privée et la communication publique ne mettent pas en jeu les mêmes intérêts. Dans la communication publique, ce sont la libre formation de l’opinion et la liberté du débat social et politique qui sont au premier plan.

A l’ère numérique toutefois, la frontière entre communication privée et communication publique devient plus floues. Par exemple, les groupes de discussion sur des messageries instantanées, bien que fermés, peuvent avoir un impact sur le débat public s’ils ont pour objet des questions d’intérêt général et que les participants sont nombreux. L’application des normes constitutionnelles gouvernant respectivement la communication privée et la communication publique ne devrait donc pas dépendre de critères exclusivement techniques ou quantitatifs mais plutôt prendre en compte les intérêts effectifs en jeu.

2. Was sind legitime öffentliche Interessen und wo beginnen verfassungsrechtliche Schutzpflichten in Bezug auf die Gewährleistung eines freien, chancengleichen öffentlichen Diskurses unter den Bedingungen der Kommunikation im Internet?

L’Etat doit être considéré comme le garant du libre exercice des libertés de communication. Il lui incombe d’établir un ordre juridique propre à en favoriser une pratique effective et vivante par l’ensemble des acteurs du débat public. Au besoin, il devra prendre des mesures actives pour écarter les menaces qui compromettraient ce libre exercice. Dans la conception traditionnelle toutefois, c’est la liberté assurée aux acteurs du débat public qui garantit le mieux le pluralisme et la diversité des opinions dont vit la démocratie. Jusqu’ici, seuls les médias audiovisuels – parce que les pouvoirs publics leur impartissent un mandat de prestation et leur fournissent les moyens, notamment financiers, pour le remplir – ont pu faire l’objet d’une régulation touchant aux contenus qu’ils diffusent. Dans ce cadre, l’obligation de refléter équitablement la diversité des opinions dans leurs programmes apparaît comme une garantie légitime pour qu’ils n’usent pas de la position privilégiée qui leur est assurée pour influencer unilatéralement l’opinion.

La question de savoir si, à l’ère numérique, ces principes sont encore valables ou si le débat public a été à ce point bouleversé par les nouvelles technologies qu’une remise en question s’impose, appelle des réponses nuancées. Les plateformes numériques, et les réseaux sociaux plus particulièrement, jouent désormais un rôle que l’on peut qualifier de « systémique » dans la structure et l’organisation du débat public. Les pouvoirs publics ne peuvent se désintéresser de la manière dont le pluralisme et l’intégrité de la communication peuvent et doivent être assurés dans cet environnement. Ils en sont même les garants, du moins en dernier ressort. Une intervention de l’Etat n’est toutefois concevable que dans le respect intégral des libertés de communication. Leur préservation fournit à la fois le but légitime et la limite de toute régulation en la matière.

Dans ce cadre, la théorie du devoir de protection des droits fondamentaux incombant à l’Etat peut sans doute fournir le fondement d’une intervention des pouvoirs publics, mais ne permet guère de déterminer quelle mesure devrait être prise exactement. Le législateur reste en effet libre du choix des moyens. Toute intervention de sa part devant au surplus être conforme aux droits fondamentaux, l’examen de l’intérêt public de la mesure envisagée et de sa proportionnalité sera déterminant.

2.1 Welche minimalen Strukturen öffentlicher Kommunikation sind für den demokratischen Diskurs verfassungsrechtlich gewährleistet?

La Constitution garantit à notre avis l’existence de la radio et de la télévision (pas celle de la SSR, mais bien l’existence d’une offre répondant au mandat de l’art. 93 al. 2 Cst.) Elle garantit l’accès de chacun à Internet et notamment aux services des plateformes en ligne. Elle garantit un processus intègre de formation de l’opinion en matière de votations et d’élections (art. 34 al. 2 Cst.), ce qui suppose, dans les faits, une offre médiatique suffisante et pluraliste et, dans des cas extrêmes et jusqu’ici théoriques, des mécanismes empêchant les plateformes en ligne de faire campagne elles-mêmes.

2.2 Welche verfassungsrechtlichen Anforderungen/Ansprüche sind an die öffentliche Kommunikation unter den Bedingungen des Internets zu stellen?

De notre point de vue, les libertés de communication en ligne doivent être protégées aux mêmes conditions qu’hors ligne. Il ne doit pas y avoir de double standard. Les restrictions qui ne sont pas admissibles hors ligne ne doivent pas être tolérées en ligne. Ce principe d’un standard rigoureusement équivalent est fondamental et devrait être à la base de toute la réflexion sur une régulation des plateformes. Il a été explicitement reconnu par le Rapporteur spécial des Nations Unies sur la promotion et la protection de la liberté d’opinion et d’expression.

2.3 Inwiefern stellt die beherrschende Stellung einzelner Intermediäre, die Kommerzialisierung des Kommunikationsinhalts, die Verbreitung falscher oder irrenführender Informationen, der Einsatz von Schreibrobotern, Internet-Bots und weitere Problemlagen öffentlicher Kommunikation im Internet eine (potentielle) Gefährdung von Grundrechten dar?

Les dangers que représentent les plateformes numériques et plus particulièrement les réseaux sociaux pour le débat public et pour le fonctionnement de la démocratie font l’objet d’un intense débat à la fois scientifique, politique, médiatique et de société. Il n’est pas question de relativiser ces risques dont certains, comme les distorsions induites par l’utilisation de robots ou de faux comptes, nous paraissent peu discutables. La science juridique ne dispose toutefois pas des instruments nécessaires, dans le domaine technique, économique et politologique en particulier, pour les évaluer valablement par elle-même. Une certaine retenue s’impose donc aux juristes en la matière, d’autant plus que sur certains aspects précis, la littérature spécialisée donne une image relativement nuancée de ces risques. Il n’y a ainsi pas de consensus sur les effets des fake news sur les électeurs, ni sur l’impact des bulles de filtres et des chambres d’écho.

Quoi qu’il en soit, la réponse à apporter doit être pleinement respectueuse des libertés de communication. Comme nous l’avons dit, le but d’une intervention du législateur doit être la préservation aussi étendue que possible de ces libertés et non l’instauration d’un débat public désormais régulé, administré et contrôlé.

2.4 Welche Voraussetzungen müssten erfüllt sein, dass staatliche Schutzmassnahmen in diesem Zusammenhang zu erwägen wären?

Sur les questions qui nous occupent, la doctrine du devoir de protection de l’Etat nous semble donner davantage une maxime générale qu’elle ne fournit de réponse précise à la question de savoir si les pouvoirs publics doivent prendre telle ou telle mesure. Les risques pour le bon fonctionnement de la démocratie évoqués ci-dessus justifient sans doute une réaction des pouvoirs publics mais celle-ci doit être, encore une fois, pleinement respectueuse des libertés de communication.

2.5 Inwieweit gleicht die Relevanz von Intermediären für die öffentliche Meinungsbildung (Stichwort Meinungsmacht) jener traditioneller, nach journalistischen Sorgfaltspflichten arbeitenden Massenmedien und welche in jenem Bereich anerkannten zentralen Sorgfaltspflichten in Bezug auf öffentliche Kommunikation (Wahrhaftigkeit, Trennung von Fakten und Kommentar, Kennzeichnung von Werbung/bezahlten Inhalten) könnten auch legitime Anforderungen an die öffentliche Kommunikation über Intermediäre sein (sei dies in der Form der Selbstregulierung (aktuell im Pressebereich), der regulierten Selbstregulierung oder der gesetzlichen Regulierung (aktuell im Radio- und Fernsehbereich)?

De manière générale, la transposition aux plateformes numériques des instruments de régulation ou d’auto-régulation appliqués aux médias traditionnels avant l’avènement du web ne nous semble offrir guère de perspectives. Les plateformes soulèvent des questions nouvelles et spécifiques qu’il est vain de vouloir régler avec les solutions du monde « d’hier ». Les réseaux sociaux et les moteurs de recherche ne sont en rien comparables aux diffuseurs audiovisuels. Ceux-ci sont soumis à des normes de contenu (art. 4 LRTV) qui gardent toute leur validité aujourd’hui, mais qui supposent que leurs destinataires exercent une maîtrise éditoriale complète sur les contenus diffusés. Ce n’est pas le cas des réseaux sociaux et cela ne doit pas le devenir car cela donnerait aux plateformes un pouvoir totalement excessif de censure sur les contenus des utilisateurs.

Les règles découlant du mandat constitutionnel de l’art. 93 al. 2 Cst. ne peuvent de toute manière pas être étendues à d’autres médias que la radio et la télévision sous peine de vider la liberté de ces autres médias de sa substance.

L’éthique des journalistes ne peut guère être étendue non plus aux acteurs numériques. Elle est en effet fortement liée aux valeurs et aux pratiques du métier et son respect repose exclusivement sur le principe d’un jugement « par les pairs ». Il n’est pas envisageable d’y inclure ni les plateformes ni leurs utilisateurs. Il serait sans doute bénéfique qu’une convergence vienne à s’établir sur certains points entre les bonnes pratiques journalistiques, fondées sur une riche et longue tradition professionnelle, et les règles d’utilisation que les plateformes s’essaient à mettre en place avec plus ou moins de succès depuis quelques années. Mais on aura garde de croire à des analogies qui n’existent pas.

2.6 Inwieweit bestehen öffentliche Interessen in Bezug auf die Sicherung der Meinungsvielfalt in der öffentlichen Kommunikation über meinungsmächtige Intermediäre ähnlich jenen im Bereich von Radio- und Fernsehen (dort: Vielfaltsgebot der Radio- und Fernsehveranstalter mit Leistungsauftrag gemäss Art. 4 Abs. 4 RTVG; Massnahmen gegen die Gefährdung der Meinungs- und Angebotsvielfalt gemäss Art. 74 f. RTVG)?

Comme nous venons de le dire, le droit de l’audiovisuel ne peut ni ne doit s’appliquer aux plateformes, à l’exception peut-être de certaines règles qui pourraient être étendues aux services de streaming en ligne au vu des analogies existant avec les diffuseurs traditionnels. Pour le reste, l’imposition d’obligations de diligence aux plateformes se heurte très vite au risque de censure privée. Les utilisateurs sont en effet protégés par la liberté d’expression et il faut éviter à tout prix, nous l’avons dit plus haut, de transformer les plateformes en arbitres de cette liberté.

La sauvegarde du pluralisme sur les plateformes doit dès lors emprunter d’autres voies. La plus souvent invoquée actuellement est celle d’une transparence des algorithmes. C’est essentiellement aussi à travers les algorithmes que l’on peut espérer assurer une forme de neutralité politique, idéologique et religieuse des plateformes.

3. Welche verfassungsrechtlichen, insbesondere grundrechtlichen Grenzen sind staatlichen Interventionen zur Gewährleistung eines solchen öffentlichen Diskurses gesetzt?

Cette question est centrale. Toute intervention de l’Etat est subordonnée au respect des droits fondamentaux. Un éventuel devoir de protection n’échappe pas à la règle. Il devrait avoir pour but d’assurer un exercice aussi étendu que possible des libertés de communications en ligne et non de les soumettre à une conception limitée, contrôlée et administrée du débat public.

3.1 Inwieweit unterstehen auch maschinelle Äusserungen (Schreibroboter, Internet-Bots, Ergebnis-Listen von Suchmaschinen etc.) grundrechtlichem Schutz?

La production automatisée de contenus doit aussi, selon nous, être mise en principe au bénéfice des libertés de communication. Ce n’est que dans des circonstances particulières, et pour lutter contre des abus, que des restrictions peuvent se justifier.

3.2 Wo beginnt das Zensurverbot unter den Bedingungen öffentlicher Kommunikation im Internet?

Nous l’avons dit (2.5 et 2.6), le risque de censure privée de la part des plateformes est une difficulté majeure. Cette censure privée peut résulter des politiques de modération des contenus pratiquées par les acteurs numériques. Elle peut être encouragée également par les normes relatives à la responsabilité des plateformes pour les contenus des utilisateurs. Cette responsabilité doit être restrictive, en particulier lorsqu’il s’agit de contenus dont l’illicéité peut varier selon le contexte.

3.3 Inwieweit müssen vor diesem Hintergrund Auswirkungen staatlicher Massnahmen gegenüber privaten Intermediären berücksichtigt werden?

Toute régulation s’appliquant à la communication publique en ligne doit être analysée en fonction des effets potentiellement nuisibles qu’elle peut avoir sur les libertés de communication.


Bibliographie

Dans nos notes de bas de page, les contributions ne sont en principe citées que par les noms des auteurs. Un mot-clé est adjoint lorsqu’un même auteur a rédigé plusieurs contributions.

A) Ouvrages, études et articles

Allcott Hunt/Gentzkow Matthew, Social Media and Fake News in the 2016 Election, Journal of Economic Perspectives, vol. 31, 2/2017, pp. 211-236, DOI: 10.1257/jep.31.2.211.

Aubert Jean-François/Mahon Pascal, Petit commentaire de la Constitution fédérale de la Confédération suisse du 18 avril 1999, Zurich, Bâle, Genève 2003.

Auer Andreas/Malinverni Girogio/Hottelier Michel, Droit constitutionnel suisse, 2 vol., 3e éd., Berne 2013.
Barrelet Denis/Werly Stéphane, Droit de la communication, 2e éd., Berne 2011.
Biaggini Giovanni, BV Kommentar, 2. A., Zürich 2017.
Castets-Renard Céline, Régulation des algorithmes et gouvernance du machine learning : vers une transparence et « explicabilité » des décisions algorithmiques ? (Algorithm Regulation and Machine Learning Governance: Towards Transparency and ‹Explainability› of Algorithmic Decisions?) (September 20, 2018), in : Revue Droit & Affaires, Revue Paris II Assas, 15ème édition, 2018.
Cornu Daniel, Tous connectés ! Internet et les nouvelles frontières de l’info, Genève 2013.
Cottier Bertil, La liberté d’expression, une perspective de droit comparé : Suisse, Parlement européen, 2019. Cité : Liberté d’expression.
Cottier Bertil, La privatisation de la fonction législative ou la face sombre de la révolution numérique, in : LeGes 30 (2019) 3. Cité : Privatisation.
Dörr Dieter, Die regulatorische Relevanz der Organisation massenhafter Individualkommunikation, unter besonderer Berücksichtigung der Sicherung der Meinungsvielfalt, Gutachten, Die Medienanstalten, Saarbrücken 2019.
Dumermuth Martin, Subjektive und objektive Elemente der Radio- und Fernsehfreiheit, p. 667ss, in: Rolf Sethe/Andreas Heinemann/Reto M. Hilty/Peter Nobel/Roger Zäch (Hrsg.), Kommunikation, Festschrift für Rolf H. Weber, Bern 2011. Cité: Radio- und Fernsehfreiheit.
Dummermuth Martin, Die Zuständigkeit des Bundes im Bereich der elektronischen Medien nach Art. 93 BV, ZBl 117/2016, p. 335ss. Cité: Zuständigkeit.
Egli Patricia/Rechsteiner David, Social Bots und Meinungsbildung in der Demokratie, AJP 2/2017, p. 249ss.
Francey Julien, La responsabilité délictuelle des fournisseurs d’hébergement et d’accès à Internet, Genève, Zurich, Bâle 2017.£
Graber Christoph Beat/Steiner Thomas, Art. 93, in: Die schweizerische Bundesverfassung, St. Galler Kommentar, 3. A., Zürich/Basel/Genf 2014.
Graf Daniel/Stern Maximilan, Agenda für eine digitale Demokratie, Zürich 2018.
Guess Andrew/Nagler Jonathan/Tucker Joshua, Less than you think: Prevalence and predictors of fake news dissemination on Facebook, Science Advances  09 Jan 2019: Vol. 5, no. 1, eaau4586 DOI: 10.1126/sciadv.aau4586.
Guiton Amaelle, Réseaux sociaux : ont-ils enterré le débat public?, Revue Projet, vol. 371, no 4, 2019, pp. 26-32.
Hertig Maya, Art. 16, in: Bernard Waldman/Eva Maria Belser/Astrid Epiney (Hrsg.), Basler Kommentar zur Bundesverfassung, Basel 2015.
Hettich Peter/Schelker Mark, Medien im digitalen Zeitalter, Zürich/St. Gallen, 2016.
Jahrbuch 2019 Qualität der Medien Schweiz – Suisse – Svizzera, herausgegeben vom fög – Forschungsinstitut Öffentlichkeit und Gesellschaft/Universität Zürich im Auftrag der Kurt Imhof Stiftung für Medienqualität, Zürich 2019. Cité: Qualität der Medien 2019.
Kübler Daniel/Goodman Christopher, Newspaper markets and municipal politics: how audience and congruence increase turnout in local elections, Journal of Elections, Public Opinion and Parties, vol. 29/1/2019, pp. 1-20.
Lubishtani Kastriot/Flattet Maxime, La démocratie directe face à la manipulation de l’information par des particuliers, AJP 7/2019, p. 710ss.
Masmejan Denis/Cottier Bertil/Capt Nicolas (éditeurs), Loi sur la radio-télévision (LRTV), Commentaire Stämpfli, Berne 2014.
Nechushtai Efrat/Lewis Seth C., What kind of news gatekeepers do we want machines to be? Filter bubbles, fragmentation, and the normative dimensions of algorithmic recommendations, in: Computers in human behavior, Volume 90, Amsterdam, January 2019, DOI: 10.1016/j.chb.2018.07.043.
Pignard-Cheynel Nathalie , Richard Jessica , Rumignani Marie , Au-delà du mur, l’algorithme de Facebook mis à l’épreuve, The Conversation, 25 septembre 2017.
Saxer Urs, Die Online-Zuständigkeit des Bundes, AJP 3/2017, p. 334ss.
Schefer Markus/Zeller Franz, Freie Kommunikation an Radio und Fernsehen, in: Jörg Paul Müller/Markus Schefer, Grundrechte in der Schweiz, 4. A., Bern 2008, p. 482-516. Cité: Radio und Fernsehen.
Schefer Markus/Zeller Franz, Informationsfreiheit, in: Jörg Paul Müller/Markus Schefer, Grundrechte in der Schweiz, 4. A., Bern 2008, p. 517-541. Cité: Informationsfreiheit.
Schefer Markus/Zeller Franz, Medienfreiheit, in: Jörg Paul Müller/Markus Schefer, Grundrechte in der Schweiz, 4. A., Bern 2008, p. 438-481. Cité: Medienfreiheit.
Teitler Mirjam, Keine Versfassungsgrundlage für eine Bundeskompetenz im Online-Bereich, in: Medialex 2018, p. 14ss.
Thalmann Urs, La compétence parallèle des cantons et de la Confédération dans la promotion des médias, in : Jusletter, 2 juillet 2018. Cité : Compétence.
Thalmann Urs, La promotion des médias est un devoir, in : Jusletter, 25 juin 2018. Cité : Promotion des médias.
Thommen Stefan/Steiger Raoul/Eichenberger Raphael/Brändli Matthias, Medienmonitor Schweiz 2018, Eine Untersuchung der Publicom AG im Auftrag des Bundesamts für Kommunikation, Kilchberg, Juli 2019.
Vosoughi Soroush/Roy Deb/Aral Sinan, The spread of true and false news online, Science, 9 mars 2018, vol. 359, pp. 1146-1151, DOI: 10.1126/science.aap9559.
Zeller Franz/Dummermuth Martin, Art. 93, in: Bernard Waldman/Eva Maria Belser/Astrid Epiney (Hrsg.), Basler Kommentar zur Bundesverfassung, Basel 2015.
Zeller Franz/Kiener Regula, Art. 17, in: Bernard Waldman/Eva Maria Belser/Astrid Epiney (Hrsg.), Basler Kommentar zur Bundesverfassung, Basel 2015.
Zurkinden Philipp, Die Meinungs- und Angebotsvielfalt und das Kartellgesetz am Beispiel der Erteilung von Rundfunkkonzessionen, in: Medialex 2014, p. 184 ss.

B) Sources officielles

Commission fédérale des médias, Aide aux médias : Etat des lieux et recommandations, Bienne, 7 août 2014.
Commission fédérale des médias, Avenir du système des médias et de la communication en Suisse: tendances, scénarios, recommandations, Papier de position, Bienne, 30 octobre 2017.
Commission fédérale des médias, Défense du journalisme, Comment sensibiliser davantage le public à l’importance du travail journalistique à l’ère numérique – Eléments de discussion, Bienne, 21 novembre 2019.
Commission fédérale des médias, Services de streaming et plateformes : Défis pour le public et les médias en Suisse, Bienne, 30 janvier 2020.
Conseil d’Etat du canton de Vaud, Exposé des motifs et projet de décret instituant des mesures de soutien à la diversité des médias, décembre 2019.
Conseil de l’Europe, Recommandation CM/Rec(2018)2 du Comité des Ministres aux Etats membres du Conseil de l’Europe sur les rôles et les responsabilités des intermédiaires d’internet, adoptée par le Comité des Ministres le 7 mars 2018.
Conseil fédéral, Cadre juridique pour les médias sociaux, Rapport du Conseil fédéral en réponse au postulat Amherd 11.3912 du 29 septembre 2011.
Conseil federal, Rapport du 11 décembre 2015 sur la responsabilité civile des fournisseurs de services Internet.
Conseil fédéral, Un cadre juridique pour les médias sociaux : nouvel état des lieux, Rapport complémentaire du Conseil fédéral du 10 mai 2017 sur le postulat Amherd 11.3912 « Cadre juridique pour les médias sociaux».
Conseil supérieur de l’audiovisuel, Recommandation n° 2019-03 du 15 mai 2019 aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations, JORF n°0114 du 17 mai 2019, texte n°65.
Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi) / Conseil supérieur de l’audiovisuel (CSA), Assistants vocaux et enceintes connectées, L’impact de la voix sur l’offre et les usages culturels et médias, Paris, mai 2019.
mission Régulation des réseaux sociaux – Expérimentation Facebook : « Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne », Rapport remis au Secrétaire d’État en charge du numérique, Paris, mai 2019.
Principes directeurs relatifs aux entreprises et aux droits de l’homme, mise en oeuvre du cadre de référence « protéger, respecter, réparer » des Nations Unies, New York, Genève, 2011.
Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur la réglementation des contenus en ligne générés par les utilisateurs, 6 avril 2018, Conseil des droits de l’homme de l’ONU, A/HRC/38/35.
Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur le rôle joué par les prestataires d’accès à l’espace numérique, 30 mars 2017, Conseil des droits de l’homme de l’ONU, A/HRC/35/22.
Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur la liberté d’expression, États et secteur privé à l’ère du numérique, 11 mai 2016, Conseil des droits de l’homme de l’ONU, A/HRC/32/38.
Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur le recours au chiffrement et à l’anonymat dans le domaine des échanges numériques, 22 mai 2015, Conseil des droits de l’homme de l’ONU, A/HRC/29/32.
Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, Report on online hate speech, General Assembly of the United Nations, 9 October 2019, A/74/486.
Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, Freedom of Expression and Elections in the Digital Age, Research paper 1/2019.

 

Note de bas de page:

  1. Les réseaux sociaux, les moteurs de recherche et autres plateformes de partage de vidéos ou de streaming peuvent tous être rangés dans la catégorie générique des « plateformes » numériques. Selon l’art. 49 de loi française pour une République numérique, codifié à l’article L. 111-7-I du Code de la consommation, « Est qualifiée d’opérateur de plateforme en ligne toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

    « 1° Le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

    « 2° Ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service. »

  2. Communiqué de presse de Facebook, 29 janvier 2020 : https://investor.fb.com/investor-news/press-release-details/2020/Facebook-to-Announce-Fourth-Quarter-and-Full-Year-2019-Results/default.aspx.

  3. Selon des chiffres publiés par l’agence de communication FrankR à Fribourg : https://frankr.ch/infographie-les-medias-sociaux-en-suisse-chiffres-cles-pour-2018.

  4. Commission fédérale des médias, Services de streaming et plateformes : Défis pour le public et les médias en Suisse, Bienne, janvier 2020, pp. 5 et 9.

  5. « Infox au Brésil : comment les fausses informations ont inondé WhatsApp », Michael Szadkowski, Le Monde, 25 octobre 2018 : https://www.lemonde.fr/pixels/article/2018/10/25/infox-au-bresil-comment-les-fausses-informations-ont-inonde-whatsapp_5374637_4408996.html.

  6. Voir : Assistants vocaux et enceintes connectées, L’impact de la voix sur l’offre et les usages culturels et médias, Hadopi et CSA, mai 2019, notamment p. 56ss.

  7. Certains font néanmoins exception : Le Canard enchaîné ne met en ligne que quelques éléments sur son site, dont sa Une qu’il « balance » avec quelques gros titres sur Twitter la vielle de la parution de l’édition imprimée.

  8. Jahrbuch 2019 Qualität der Medien Schweiz, p. 16.

  9. Dans le même sens : Saxer, p. 341 ss; Teitler, p. 15.

  10. Dumermuth, Zuständigkeit, p. 346; Zeller/Dumermuth, Art. 93 N. 13; Biaggini, Art. 93 N. 5

  11. Voir plus loin, N. 74.

  12. Voir Saxer, p. 345.

  13. Aubert/Mahon, Art. 42 N. 5.

  14. Dans un sens analogue: Graber/Steiner, Art. 93 N. 5.

  15. Zeller/Dumermuth, Art. 93 N. 10; Aubert/Mahon, Art. 93 N. 5 ; Cottier in: Masmejan/Cottier /Capt, Introduction générale, N. 60.

  16. Aubert/Mahon, Art. 42 N. 8; les mêmes auteurs rappellent ailleurs, à propos de la compétence fédérale en matière d’émission monétaire, que la compétence explicitement exclusive de la Confédération (« le droit de battre monnaie et celui d’émettre des billets de banque appartiennent exclusivement à la Confédération » : aujourd’hui, art. 99 al. 1 Cst.) n’a pas empêché les cantons de continuer de battre monnaie et d’émettre des billets jusqu’à ce que l’Etat fédéral soit en mesure de le faire lui-même : ibid. Art. 99 N. 7.

  17. Barrelet/Werly, p. 60 s.

  18. Dans le même sens : Thalmann, Compétence, p. 14.

  19. Aubert/Mahon, Art. 93 N. 8.

  20. Cf. par exemple, pour l’activité gouvernementale, l’art. 180 al. 2 Cst. : « Il [le Conseil fédéral] renseigne le public sur son activité en temps utile et de manière détaillée, dans la mesure où aucun intérêt public ou privé prépondérant ne s’y oppose. »

  21. FF 1981 II 903.

  22. Barrelet/Werly, p. 66 N. 215; Hettich/Schelker, p. 112, Saxer, p. 347, Teitler, p. 16.

  23. Aubert/Mahon, Art. 93 N. 7 (mais de manière nuancée); Biaggini, Art. 93 N. 11; Dumermuth, Zuständigkeit, p. 344ss; Graber/Steiner, Art. 93 N. 12; Zeller/Dumermuth, Art. 93 N. 29.

  24. Barrelet Denis, Droit de la communication, 1ere édition, Berne 1998, N. 164, p. 47 et Barrelet/Werly, N. 192, p. 60.

  25. Dans un sens analogue : Saxer, p. 349 ; voir aussi Cottier, Liberté d’expression, p. 31.

  26. Aubert/Mahon, Art. 93 N. 11.

  27. Cette étude n’approfondira pas la question de savoir jusqu’où la Constitution autorise la SSR à développer ses activités en ligne, notamment la publicité.

  28. Saxer, p. 347; Teitler, p.15 N. 7 in fine.

  29. FF 2019 3753.

  30. Directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»), Journal officiel de l’Union européenne du 28 novembre 2018, L303/69.

  31. Commission fédérale des médias, Services de streaming et plateformes : Défis pour le public et les médias en Suisse, Bienne, janvier 2020.

  32. Voir plus loin, N. 53 et 76.

  33. Voir plus haut, N. 7ss.

  34. Dans un sens analogue : Zeller/Kiener, Art. 17 N. 17.

  35. Conseil suisse de la presse, prise de position 1/2019 : « Multiplication des sites d’information sur l’Internet: champ de compétence du Conseil de la presse. »

  36. Ibid., considérant 3.

  37. Ibid., considérant 8.

  38. Formulation identique à l’art. 172 al. 1 du Code de procédure pénale.

  39. Voir plus loin, N. 102. A notre avis, la responsabilité « en cascade » consacrée par l’art. 28 CP ne peut pas s’appliquer aux plateformes numériques : celles-ci ne sont pas, vis-à-vis de leurs utilisateurs, dans une position comparable à celle du rédacteur responsable ou du responsable de la publication par rapport à aux collaborateurs ou aux auxiliaires d’un média d’information.

  40. Par exemple : « Tobi », le robot mis au point par le groupe Tamedia pour produire des informations standardisées sur le résultat des votations dans chaque commune.

  41. Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur le recours au chiffrement et à l’anonymat dans le domaine des échanges numériques, 22 mai 2015, Conseil des droits de l’homme de l’ONU, A/HRC/29/32, p. 19, ch. 49.

  42. Ashcroft v. Free Speech Coalition (00-795) 535 U.S. 234 (2002).

  43. Parmi de nombreux arrêts : Stoll c. Suisse, Grande Chambre, no 69698/01, 10 décembre 2007, § 101.

  44. Auer/Malinverni/Hottelier, vol. II, p. 252.

  45. Pour la Cour européenne des droits de l’homme, voir par exemple : Amorim Giestas et Jesus Costa Bordalo c. Portugal, no 37840/10, 3 avril 2014, §25. Pour le Tribunal fédéral, certes plus retenu : ATF 139 I 114, c. 3 ; ATF 137 I 8, c. 2.5 ; ATF 127 IV 166, c. 2g ; ATF 123 IV 236, c. 8c ; ATF 104 Ia 377, c. 3a. Mais c’est un arrêt de 1911, souvent cité par la doctrine, qui exprime avec le plus de force la mission de la presse dans un Etat démocratique : ATF 37 I 368, c. 3 : «Von diesem Gesichtspunkte aus ist bei Rekursen wegen Verletzung der Pressefreiheit jeweilen in erster Linie festzustellen, ob das inkriminierte Presserzeugnis nach Form und Inhalt geeignet war, oder doch den Zweck verfolgte, eine jener besondern, der Presse obliegenden Aufgaben zu erfüllen, also z.B. dem Leser bestimmte, die Allgemeinheit interessierende Tatsachen zur Kenntnis zu bringen, ihn über politische, ökonomische, wissenschaftliche, literarische und künstlerische Ereignisse aller Art zu orientieren, über Fragen von allgemeinem Interesse einen öffentlichen Meinungsaustausch zu provozieren, in irgend einer Richtung auf die praktische Lösung eines die Öffentlichkeit beschäftigenden Problems hinzuwirken, über die Staatsverwaltung und insbesondere über die Verwendung der öffentlichen Gelder Aufschluss zu verlangen, allfällige Missbräuche im Gemeinwesen aufzudecken, u.s.w.»

  46. Dumermuth, Radio- und Fernsehfreiheit, p. 680; Schefer/Zeller, Medienfreiheit, p. 439.

  47. Voir à ce sujet Cornu, p. 149 s.

  48. Les règlements communaux peuvent interdire la pose d’antennes paraboliques mais uniquement sous certaines conditions : ATF 120 Ib 64 ; voir aujourd’hui art. 67 LRTV.

  49. Voir Thalmann, Promotion des médias, p. 9.

  50. Schefer/Zeller, Medienfreiheit, p. 475; voir plus loin N. 126 ss.

  51. Les mesures d’aide indirecte à la presse telles que les tarifs postaux préférentiels ou le taux de TVA réduit ont leur base constitutionnelle dans les dispositions respectives sur les services postaux (art. 92 Cst.) et la TVA (art. 130 Cst.) ; voir aussi Dumermuth, Radio- und Fernsehfreiheit, p. 685.

  52. Arrêt de la Cour européenne des droits de l’homme Manole c. Moldavie, no 13936/02, 17 septembre 2009, §99-100 ; arrêt de la Cour européenne des droits de l’homme VgT c. Suisse, no 32772/02, 30 juin 2009, §78ss ; Dumermuth, Radio- und Fernsehfreiheit, p. 687.

  53. Arrêt de la Cour européenne des droits de l’homme Centro Europa 7 S.R.L. et Di Steffano c. Italie, no 38433/09, 7 juin 2012, §134.

  54. Dumermuth, Radio- und Fernsehfreiheit, p. 684.

  55. ATF 126 II 300, c. 5b, 315 : «Die grundrechtliche Schutzpflicht kann aber ebenso wenig wie das Umweltrecht einen absoluten Schutz gegen jegliche Beeinträchtigung und Risiken gewähren. Das ergibt sich einerseits aus den faktisch begrenzten Mitteln des Staates (vgl. Urteil Osman, § 116; BGE 119 Ia 28 E. 2 S. 31 f.), andererseits aber auch daraus, dass ein solch absoluter Schutz unweigerlich dazu führen müsste, dass zahlreiche Tätigkeiten Dritter verboten werden müssten, was in Konflikt treten würde zu deren ebenfalls verfassungsrechtlich geschützten Betätigungsmöglichkeiten (…)»

  56. Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur la liberté d’expression, États et secteur privé à l’ère du numérique, 11 mai 2016, Conseil des droits de l’homme de l’ONU, A/HRC/32/38, VI., p. 24.

  57. Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur la réglementation des contenus en ligne générés par les utilisateurs, 6 avril 2018, Conseil des droits de l’homme de l’ONU, A/HRC/38/35, ch. 6, p. 4.

  58. Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur la liberté d’expression, États et secteur privé à l’ère du numérique, 11 mai 2016, Conseil des droits de l’homme de l’ONU, A/HRC/32/38, ch. 6, p. 4.

  59. Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur la liberté d’expression, États et secteur privé à l’ère du numérique, 11 mai 2016, Conseil des droits de l’homme de l’ONU, A/HRC/32/38, ch. 10, p. 5.

  60. Principes directeurs relatifs aux entreprises et aux droits de l’homme, mise en oeuvre du cadre de référence « protéger, respecter, réparer » des Nations Unies, New York, Genève, 2011. Le point 1 de cet instrument précise que « Les Etats ont l’obligation de protéger lorsque des tiers, y compris des entreprises, portent atteinte aux droits de l’homme sur leur territoire et/ou sous leur juridiction. » Selon le point 14, « La responsabilité qui incombe aux entreprises de respecter les droits de l’homme s’applique à toutes les entreprises indépendamment de leur taille, de leur secteur, de leur cadre de fonctionnement, de leur régime de propriété et de leur structure. Néanmoins, la portée et la complexité des moyens par lesquels les entreprises s’acquittent de cette responsabilité peuvent varier selon ces facteurs et la gravité des incidences négatives sur les droits de l’homme. »

  61. Recommandation CM/Rec (2018)2 du Comité des Ministres aux Etats membres relative aux rôles et aux responsabilités des intermédiaires d’internet, ch. 6.

  62. Voir plus loin, N. 66.

  63. Contra : Dumermuth, Radio- und Fernsehfreiheit, p. 698.

  64. Voir plus haut, N. 20 ss.

  65. Voir plus loin, N. 127 s.

  66. Parmi beaucoup d’autres arrêts : ATF 121 I 252, 255, Alliance de gauche.

  67. ATF 114 Ia 427.

  68. Aubert/Mahon, Art. 34 N. 5.

  69. Arrêt du Tribunal fédéral 1C_472/2010 du 20 janvier 2011, c. 4.1. Sur le mensonge comme une « composante de la liberté d’expression » : Cottier, p. 29.

  70. ATF 116 Ia 496, c. 6a in fine: il s’agissait ici cependant des arguments du comité référendaire lui-même.

  71. ATF 135 I 292, c. 4.

  72. Cottier, p. 29.

  73. Un cadre juridique pour les médias sociaux : nouvel état des lieux, Rapport complémentaire du Conseil fédéral du 10 mai 2017 sur le postulat Amherd 11.3912 « Cadre juridique pour les médias sociaux », p. 52.

  74. Ibid.

  75. Voir plus loin, N. 108 ss.

  76. Voir ATF 143 IV 21.

  77. Dörr, p. 25s ; sur cette loi, voir plus loin, N. 67.

  78. mission Régulation des réseaux sociaux – Expérimentation Facebook : « Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne », Rapport remis au Secrétaire d’État en charge du numérique, Paris, mai 2019, p. 15s.

  79. Guiton Amaelle, « Réseaux sociaux : ont-ils enterré le débat public ? », Revue Projet, vol. 371, no. 4, 2019, pp. 26-32 ; voir aussi Badouard Romain, Le désenchantement de l’internet, Désinformation, rumeur, propagande, Limoges, FYP Éditions, 2017.

  80. Jahrbuch 2019 Qualität der Medien Schweiz, p. 13.

  81. Dörr, p. 10 ; Graf/Stern, p. 96. Une récente étude sur l’algorithme de Google tend à infirmer l’existence de différences majeures dans les résultats de recherche en fonction du profil idéologique de l’internaute : Nechushtai Efrat / Lewis Seth C., What kind of news gatekeepers do we want machines to be? Filter bubbles, fragmentation, and the normative dimensions of algorithmic recommendations, in: Computers in human behavior, Volume 90, January 2019, p. 298-307.

  82. Pour l’élection présidentielle américaine de 2016, voir notamment Allcott/Gentzkow, p. 232 : « In the aftermath of the 2016 US presidential election, it was alleged that the fake news might have been pivotal in the election of President Trump. We do not provide an assessment of this claim one way or an another »; voir cependant une recherche du Massachusetts Institute of Technology : Vosoughi/Roy/Aral, p. 1146ss, qui montrent la plus grande « viralité » des fake news que des informations fiables sur Twitter. Sur les effets possibles de la désinformation, voir une appréciation très prudente aussi de la Commission fédérale des médias : Commission fédérale des médias, Services de streaming et plateformes : Défis pour le public et les médias en Suisse, Bienne, 30 janvier 2020, p. 11s.

  83. Guess/Nagler/Tucker, p. 1. Less than you think: Prevalence and predictors of fake news dissemination on Facebook, Science Advances  09 Jan 2019: Vol. 5, no. 1, eaau4586 DOI: 10.1126/sciadv.aau4586.

  84. Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. L’art. L 163-2 du Code électoral adopté par cette loi institue, pour les périodes précédant un scrutin, une procédure de référé obligeant le juge à statuer dans les 48 heures sur une demande de suppression de contenu « lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne ». Par décision no 2018-773 DC du 20 décembre 2018, le Conseil constitutionnel a validé ce texte sous la réserve d’interprétation suivante : « Dès lors, compte tenu des conséquences d’une procédure pouvant avoir pour effet de faire cesser la diffusion de certains contenus d’information, les allégations ou imputations mises en cause ne sauraient, sans que soit méconnue la liberté d’expression et de communication, justifier une telle mesure que si leur caractère inexact ou trompeur est manifeste. Il en est de même pour le risque d’altération de la sincérité du scrutin, qui doit également être manifeste. »

  85. Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG); Dörr, p. 26 met en doute la constitutionnalité de ce texte.

  86. Voir sur ce sujet Graf/Stern, p. 66ss et 96ss.

  87. Le CICR a ainsi édité un guide sur l’utilisation des médias sociaux pour mieux communiquer avec les personnes touchées par une situation de crise : « How to use social media to engage with people affected by crises – a brief guide », Geneva 2017. On y lit en introduction : «  In the past few years, the role of social media and digital technologies in times of disasters and crises has grown exponentially. During disasters like the 2011 Tohoku earthquake and tsunami, and the 2015 Nepal earthquake, for instance, Facebook and Twitter were crucial components of the humanitarian response, allowing mostly local, but also international actors involved in relief efforts, to disseminate lifesaving messages. They also offered affected communities a channel to seek help, reconnect with their families and provide feedback on the assistance received so that programmes could be adapted, when possible. »

  88. Graf/Stern, p.66-67.

  89. Voir plus haut, N. 40 ss.

  90. Voir plus haut, N. 19 ss.

  91. Pour une appréciation critique : Zurkinden, p. 189 s.

  92. Cf. « Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne », Rapport de la mission « Régulation des réseaux sociaux- Expérimentation Facebook » remis au Secrétaire d’Etat en charge du numérique, mai 2019, p. 25 : « Chaque algorithme peut avoir des milliards d’avatars qui ne se comportent pas tout à fait de manière identique selon les utilisateurs et selon les pays. » ; voir également Pignard-Cheynel/Richard/Rumignani :  « Presque tous les groupes ont observé une polarisation de leur mur d’actualité en lien avec les idées du candidat suivi. Pour autant, c’est plus les médias (et leur couleur politique) que les contenus eux-mêmes qui semblaient déterminants pour l’algorithme. »

  93. Des dispositions sur la transparence des algorithmes des principales plateformes ont été introduites par la récente révision du Medienstaatsvertrag en Allemagne, approuvée par les Länder le 5 décembre 2019 (§93) ; le texte peut être consulté sur la page web du Land de Rhénanie-Palatinat : https://www.rlp.de/de/regierung/staatskanzlei/medienpolitik/medienstaatsvertrag/; voir Dörr, p. 41ss. La Recommandation no2019-03 du 15 mai 2019 du Conseil supérieur français de l’audiovisuel aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations encourage les opérateurs à assurer à chaque utilisateur, notamment, « une information claire, suffisamment précise et facilement accessible sur les critères ayant conduit à l’ordonnancement du contenu qui lui est proposé et le classement de ces critères selon leur poids dans l’algorithme » (ch. 2 lit. b) ; le rapport « Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne » (Rapport de la mission « Régulation des réseaux sociaux- Expérimentation Facebook » remis au Secrétaire d’Etat en charge du numérique, mai 2019) va dans le même sens en préconisant (p. 20) la transparence « sur les fonctions clés des réseaux sociaux ». En Suisse, la Commission fédérale des médias a également recommandé d’instituer, par l’auto-régulation ou la co-régulation, des mesures visant à garantir la transparence et la responsabilité en matière d’algorithmes : voir sa recommandation 15, in : Commission fédérale des médias, Services de streaming et plateformes : Défis pour le public et les médias en Suisse, Bienne, 30 janvier 2020, p. 20. La transparence des algorithmes figure également dans les « Lignes directrices à l’attention des Etats sur les actions à prendre à l’égard des intermédiaires d’internet compte tenu de leurs rôles et de leurs responsabilités », Annexe à la Recommandation CM/Rec(2018)2 du Comité des Ministres du Conseil de l’Europe, déjà évoquée, ch. 2.2.3. Voir aussi l’accord intergouvernemental baptisé « Partenariat pour l’information et la démocratie » signé aujourd’hui par 31 Etats dont la Suisse, destiné à mettre en oeuvre des garanties démocratiques dans l’espace de la communication et de l’information, ch. 27 lit. c : « faire preuve de transparence et de responsabilité concernant l’organisation de contenu par des algorithmes (…) », cf. plus loin N. 86.

  94. Pour la Suisse : Déclaration des devoirs et des droits du/de la journaliste, ch. 10 : « S’interdire de confondre le métier de journaliste avec celui de publicitaire; n’accepter aucune consigne, directe ou indirecte, des annonceurs publicitaires. »

  95. Castets-Renard Céline, Régulation des algorithmes et gouvernance du machine learning : vers une transparence et « explicabilité » des décisions algorithmiques ? (Algorithm Regulation and Machine Learning Governance: Towards Transparency and ‹Explainability› of Algorithmic Decisions?) (September 20, 2018), in. Revue Droit & Affaires, Revue Paris II Assas, 15ème édition, 2018, p. 4.

  96. Voir ci-dessus, N. 80 et les références citées.

  97. Le texte est disponible en ligne sur le site du Ministère français des affaires étrangères, qui a eu le « lead » sur la préparation de ce texte : https://www.diplomatie.gouv.fr/IMG/pdf/partenariat_international_pour_l_information_et_la_democratie_cle48d6b9.pdf. L’auteur rappelle, pour des raisons de transparence, qu’il est le secrétaire général de la section suisse de Reporters sans frontières et qu’à ce titre il a soutenu ce projet.

  98. Voir plus loin, N. 121 ss.

  99. Voir plus haut N. 44.

  100. Recommandation CM/Rec (2018)2 du Comité des Ministres aux Etats membres du Conseil de l’Europe, Annexe, ch. 2.1.1.

  101. Ibid., ch. 2.1.3.

  102. Rapport sur la réglementation des contenus en ligne générés par les utilisateurs, 6 avril 2018, Conseil des droits de l’homme de l’ONU, A/HRC/38/35, p. 18.

  103. Voir plus haut N. 21.

  104. En ce sens : « Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne », Rapport de la mission « Régulation des réseaux sociaux – Expérimentation Facebook » remis au Secrétaire d’État en charge du numérique, mai 2019, p. 12.

  105. « Le vertigineux projet de « cour suprême » de Facebook sur la modération des contenus », in : Le Monde, 27 juin 2019, https://www.lemonde.fr/economie/article/2019/06/27/le-vertigineux-projet-de-cour-supreme-de-facebook-sur-la-moderation-des-contenus_5482281_3234.html. Pour une appréciation critique: Cottier, Privatisation, N. 35.

  106. «Human rights expert to keep Zuckerberg in check», BBC News, 28 janvier 2020, https://www.bbc.com/news/technology-51279555.

  107. Voir plus haut, N. 67.

  108. En ce sens : Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur la réglementation des contenus en ligne générés par les utilisateurs, 6 avril 2018, Conseil des droits de l’homme de l’ONU, A/HRC/38/35, p. 4.

  109. Voir notamment : Conseil federal, Rapport du 11 décembre 2015 sur la responsabilité civile des fournisseurs de services Internet, p. 100; Francey, p. 72 s.

  110. En sens contraire : Francey, p. 223ss. L’auteur sous-estime à notre avis l’impact d’une telle mesure sur la liberté des médias en avançant qu’elle ne serait que limitée dans le temps ; or la question du timing d’une information délicate est fondamentale dans le travail des médias, notamment lorsqu’on est à la veille d’un scrutin ou d’une décision politique.

  111. Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, portant adoption de l’art. L 163-2 du Code électoral. Cette disposition institue une procédure de référé obligeant le juge à statuer dans les 48 heures sur une demande de suppression de contenu « lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne ». Par décision du 20 décembre 2018, le Conseil constitutionnel a validé ce texte sous la réserve d’interprétation suivante : « Compte tenu des conséquences d’une procédure pouvant avoir pour effet de faire cesser la diffusion de certains contenus d’information, les allégations ou imputations mises en cause ne sauraient, sans que soit méconnue la liberté d’expression et de communication, justifier une telle mesure que si leur caractère inexact ou trompeur est manifeste. Il en est de même pour le risque d’altération de la sincérité du scrutin, qui doit également être manifeste. »

  112. Voir note précédente.

  113. Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, Freedom of Expression and Elections in the Digital Age, Research paper 1/2019.

  114. Voir plus haut, N. 55 ss.

  115. Nous ne parlons pas ici d’informations qui enfreindraient les règles du Code pénal parce qu’elles sont attentatoires à l’honneur, racistes, qu’elles incitent à la violence ou au crime, etc. Lubishtani/Flattet, p. 718ss, évoquent la possibilité qu’une campagne de fake news tombe, dans des formes extrêmes, sous le coup de l’art. 275 CP (atteintes à l’ordre constitutionnel) ; l’hypothèse paraît assez théorique.

  116. Voir plus haut, N. 67.

  117. Egli/Rechsteiner, p. 252.

  118. Ibid.

  119. Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Rapport sur la réglementation des contenus en ligne générés par les utilisateurs, 6 avril 2018, Conseil des droits de l’homme de l’ONU, A/HRC/38/35, ch. 6, p. 4 ; voir plus haut N. 47.

  120. Chiffres donnés par le professeur Patrick-Yves Badillo à l’occasion d’une conférence organisée par la Ville de Genève le 14 septembre 2018, cités par le Conseil d’Etat vaudois dans son Exposé des motifs et projet de décret instituant des mesures de soutien à la diversité des médias, décembre 2019, p. 12.

  121. Jahrbuch 2019 Qualität der Medien Schweiz, p. 118.

  122. Thommen/Steiger/Eichenberger/Brändli, p. 2.

  123. Ibid., p. 3.

  124. Ibid.

  125. Ibid.

  126. Exposé des motifs et projet de décret instituant des mesures de soutien à la diversité des médias, décembre 2019, p. 28.

  127. Ibid., p. 29.

  128. Voir plus haut, N. 36.

  129. Exposé des motifs et projet de décret instituant des mesures de soutien à la diversité des médias, décembre 2019, p. 27.

  130. Exposé des motifs et projet de décret instituant des mesures de soutien à la diversité des médias, décembre 2019, p. 28-29.

  131. Ibid., p. 30.

  132. Ibid. p. 32ss.

  133. Ibid. p. 23-24.

  134. Communiqué de presse du Conseil fédéral du 28 août 2019 :
    https://www.admin.ch/gov/fr/accueil/documentation/communiques.msg-id-76208.html.

  135. Sur l’absence de compétence sur ce point dans la Constitution fédérale et les tentatives d’en créer une, voir Dumermuth, Radio- und Fernsehfreiheit, p. 685. Sur l’aide aux médias en général, voir Commission fédérale des médias, Aide aux médias : Etat des lieux et recommandations, Bienne, 7 août 2014.

  136. Exposé des motifs et projet de décret instituant des mesures de soutien à la diversité des médias, décembre 2019, p. 31.

  137. Dans le même sens : Schefer/Zeller, Medienfreiheit, p. 475.

  138. Voir nos développements plus haut, N. 19 ss.

image_print

Kommentar schreiben

eight + fourteen =

Über uns

Medialex ist die schweizerische Fachzeitschrift für Medien- und Kommunikationsrecht. Sie erscheint als Newsletter im Monatsrhythmus (10x jährlich), open access, und enthält Untersuchungen und Brennpunkte zu medienrechtlichen Themen, aktuelle Urteile mit Anmerkungen, Hinweise auf neue medien- und kommunikationsrechtliche Urteile, UBI-Entscheide und Presseratsstellungnahmen sowie auf neue wissenschaftliche Publikationen und Entwicklungen in der Rechtsetzung.

Vernetzen