Sylvestre Huet
11/03/2018
Le comité d’experts sur les fake news mis en place en novembre dernier par la Commission Européenne vient de rendre public son rapport. Issu de quatre réunions et d’intenses échanges, il survient alors que les études scientifiques sur la diffusion préférentielle des fausses nouvelles sur les réseaux sociaux comme Twitter ont fait la Une de la revue Science vendredi dernier (lire une analyse de ces études ici). Ou qu’Emmanuel Macron annonce une intervention législative favorisant l’action judiciaire contre la diffusion de fausses informations.
Ce texte de 46 pages (lire en fin de note l’interview de Divina Frau-Meigs, membre du groupe d’experts) met d’emblée le sujet au niveau d’un «risque pour nos processus démocratiques, la sécurité nationale, le tissu social, et peut miner la confiance dans une société de l’information et le marché unique numérique». Un risque dont l’origine est précisée rigoureusement : la propagation volontaire d’information fausses, imprécises ou trompeuses conçues et diffusées pour nuire au public ou pour en obtenir un profit économique, financier, politique (en particulier lors des élections) ou idéologique. Le rapport ne s’intéresse donc que très peu à la propagation d’une fausse information par des personnes ne les ayant pas identifiées comme telles, et donc victimes de la désinformation.
Crise de confiance
En revanche, il insiste pour placer le problème dans une vision large de la manière dont l’information est produite, distribuée dans la sphère publique. Une vision qui inclut le journalisme, les média numériques et la montée des plate-formes (Facebook, Google, Twitter…) mais aussi le contexte de crise de confiance des citoyens envers les institutions publiques nationales et européennes. Cette vision s’interroge sur le rôle des médias numériques mais tout le monde en prend pour son grade.
Les responsables politiques pour disséminer de fausses informations (ci-contre un exemple célèbre) ou vouloir contrôler la presse à leur profit. Les journaux qui n’ont pas tous «le même standard de professionnalisme ou d’indépendance éditoriale». Voire les acteurs de la société civile, comme les ONG qui peuvent certes jouer un rôle de fact-checking ici, mais aussi désinformer à leur tour là. Quant aux « platforms US-based » – le texte désigne ainsi Facebook, Twitter, Google… – leur « pouvoir croissant » dans la circulation de l’information en font les vecteurs principaux des fake news et doit aller avec un responsabilité croissante, estiment les experts européens.
« fake news » ou « false news »
La «désinformation» doit être affrontée tout «en respectant la liberté d’expression, de recevoir et de donner de l’information», posent en préalable les 39 experts nommés par la Commissaire Européenne en charge de « la société et l’économie numérique » Mariya Gabriel. Ils ne sont donc pas très chauds pour une intervention législative lourde… Alors que de son côté Tim Berners-Lee, l’un des créateurs des protocoles logiciels du web au Cern, appelle à une régulation des plate-formes. Une pierre dans le jardin d’Emmanuel Macron. Leur rapport s’inscrit dans une démarche résumée ci-dessous :
Le texte se heurte d’emblée à un problème de vocabulaire puisque toute cette action de la Commission Européenne a été présentée sous l’appellation « fake news », et est d’ailleurs titré « Rapport du groupe d’expert de haut niveau européen sur les fake news » dans sa
version draft. Or, les experts recommandent justement de ne pas utiliser ce terme, en particulier en raison de son utilisation par des politiciens pour désigner une couverture médiatique à leur désavantage. Il est à craindre que cette volonté de pureté de vocabulaire soit d’une totale inefficacité dans la sphère médiatique, même non anglophone, tant la formule « fake news » se coule dans le moule journalistique : court, évocateur, attractif et tranchant.
Les articles de Science se heurtaient à ce même problème, mais si les éditeurs de la revue scientifique l’ont contourné dans leur titre de Une (utilisant la formule «false news») il est à parier qu’ils ne seront guère suivis par la presse généraliste (démonstration avec le titre de cette note….).
Transparence des algorithmes
Très dense, ce rapport émet de nombreuses analyses et recommandations qu’il est difficile de résumer. Je vais donc en choisir quelques unes, un choix sans rapport avec l’équilibre du texte, qui montrent à quel point l’action proposée est vaste et va se heurter à des résistances.
► Le rapport souligne la nécessité d’un accès des chercheurs et des autorités d’enquête ou d’audits aux origines et chemins de dissémination des informations sur les réseaux numériques. Autrement dit, un peu comme le secret commercial est inacceptable lorsque la santé publique est en jeu, les experts estiment que la « santé politique » de nos sociétés s’oppose à toute tentative de secret des Facebook, Twitter ou Google sur le fonctionnement de leurs réseaux. Cette transparence, y compris pour les médias qui doivent être informés lorsque les algorithmes de classement sont changés, sera nécessairement un objet d’affrontement violent mais elle est jugée indispensable par les experts.
► Les experts soulignent la puissance des technologies dans la propagation de l’information (vraie ou fausse) mais également qu’aucune technologie ne peut résoudre seule un problème social et politique et que des personnes sont responsables de la manière dont ces technologies sont développées. Bref, ils récusent l’excuse « c’est pas Zuckerberg, c’est le robot ».
► Il faut créer une culture de l’information et des médias numériques – autrement dit une lecture critique de leurs contenus, le texte anglais utilise le mot literacy qui peut se traduire par alphabétisation, mais je préfère « culture » car il faut aller bien au delà d’un apprentissage primaire – et la diffuser, à l’école et dans la société, tant près des jeunes que des adultes. Elle doit devenir une «compétence essentielle» pour une citoyenneté active et la participation à la sphère publique numérique. Le texte insiste sur le caractère «préventif» de cette action vis à vis des fausses informations. Le « vaccin » est donc jugé plus efficace que le « médicament » avalé après exposition au risque de la fausse information. Cette culture doit être introduite «à une échelle massive» dans les programmes scolaires et la formation des enseignants, précise le texte.
► Les pouvoirs publics doivent favoriser l’environnement d’une presse pluraliste, tant privée que publique (le nombre de journalistes titulaires de la carte de presse a chuté de 37 390 en 2009 à 35 047 en 2017. Et ils sont de plus en plus souvent précaires, partent de moins en moins souvent en reportages.) Le communiqué de la Commission européenne accompagnant la publication du rapport précise que «Selon la dernière enquête Eurobaromètre (environ 26 000 personnes interrogées), le public a le sentiment que beaucoup de fausses informations circulent dans l’UE, 83 % des participants indiquant que ce phénomène représente un danger pour la démocratie. Cette enquête met également en exergue l’importance de la qualité des médias: les participants voient dans les médias traditionnels la source d’information la plus fiable (radio 70 %, télévision 66 %, presse écrite 63 %). Les sources d’information en ligne et les sites d’hébergement de vidéos seraient les moins dignes de confiance, 26 % et 27 % des participants, respectivement, leur accordant du crédit.»
►Les pouvoirs publics doivent soutenir la création de centres de recherches publiques sur la véracité des informations sur les affaires d’intérêt général (politique, santé, science, éducation, finance…), l’identification et la cartographie des sources de désinformation et les mécanisme de leur amplification numérique.
► Il faut « démonétiser » la diffusion de fausses informations (interdire la publicité sur des pages internet dont le contenu est faux). Voir l’analyse des décodeurs du Monde sur ces sites commerciaux dont le modèle économique accentue leur propension à diffuser des informations fausses mais qui attirent du clic par leur contenu « insolite ». C’est l’application au monde numérique du vieil adage journalistique «un chien mort un homme, rien, un homme mort un chien, un papier». Ces usines à fausses informations doivent être frappées au portefeuille si l’on veut stopper la machine infernale. Même motif même punition pour Facebook, la plus puissante source de fake news.
►Informer clairement l’internaute de ce qu’une information, surtout présentée en priorité a été payée, par qui et dans quels objectifs (publicité commerciale, propagande politique…) et donc qu’elle ne provient pas d’une source journalistique. Egalement informer de l’intervention d’un robot ou d’un paiement dans l’amplification de la diffusion d’une information.
___________________________________________________
Le groupe d’experts de haut niveau sur les fake news mis en place par la Commission Européenne a rendu son rapport public son rapport aujourd’hui. Parmi ses 39 membres (1), Divina Frau-Meigs, Professeure à l’Université Paris-Sorbonne nouvelle, qui répond à mes questions sur ce texte.
Les auteurs des articles paru vendredi dernier dans la revue Science reconnaissent qu’il est difficile de mesurer l’impact des fausses informations diffusées sur les réseaux sociaux. Joue t-on à se faire peur, ou y a t-il vraiment un « risque pour la démocratie » comme l’affirme votre rapport et quel est-il ?
Divina Frau-Meigs : le groupe d’experts mis en place par la Commissaire Mariya Gabriel est parvenu à un consensus sur ce point : il y a un risque fort pour la démocratie. C’est probablement la conscience de ce risque qui a permis qu’aucun expert ne sorte du groupe, malgré les pressions qui ont pu s’exercer sur les représentants de différentes parties prenantes, qu’il s’agisse des plates-formes numériques ou de la société civile (1). Et le rapport a été approuvé à l’unanimité moins une voix. Si nous nous accordons sur l’idée qu’il faut encore beaucoup de recherches pour en mesurer l’étendue, le phénomène est profond, même avec la définition assez limitée, contrainte que nous avons choisie et qui pourra être étendue à d’autres comportements et à des menaces hybrides de pays tiers non démocratiques par exemple. Parmi les risques, celui d’une ingérence extérieure, mettant en cause la souveraineté nationale et européenne, est évidente aux yeux des responsables politiques et a joué un rôle dans leur mobilisation. Mais, et peut-être surtout, le risque est celui d’un soupçon généralisé répandu dans nos sociétés et qui en mine le fonctionnement démocratique. Car ce soupçon – généré par des marchands de soupçons qui y trouveront intérêt économique, financier, politique… – n’est pas le doute cartésien générateur de curiosité et de désir de vérification de la véracité d’affirmations mais la mise en doute généralisée de l’accès égal à l’information des citoyens sur lequel repose in fine tout système démocratique.
Le rapport parle d’un risque pour « le marché unique numérique », la formule pourrait être comprise comme étroitement soumise à une vision politique étroite de l’Union Européenne ?
Divina Frau-Meigs : j’aurais préféré « société de l’information » pour marquer les deux piliers économique et politique du rapport mais cette formule provient du commanditaire de l’expertise, la Commission Européenne, qui désigne ainsi son action sur le sujet. Son intérêt est de montrer que les industriels des plates-formes numériques se sont invités dans ce marché unique numérique avec leurs armes et bagages technologiques et commerciaux, dont la monétisation des réseaux sociaux, et sans égards pour les exigences démocratiques et de transparence européennes.
Alors que des gouvernements s’apprêtent à légiférer, le rapport insiste plutôt sur une action de fond visant à « vacciner » la population contre la diffusion de fausses informations. N’êtes vous pas trop optimistes sur l’effet de cette éducation aux médias que vous appelez à soutenir ?
Divina Frau-Meigs : le mot vaccination n’est pas dans le rapport et je n’y aurais pas été favorable car il pourrait induire l’idée que l’action requise pour lutter contre le phénomène pourrait être limitée à une formation initiale, par les programmes scolaires, des jeunes et des citoyens. Il faut bien sûr s’y attaquer, et sans attendre. Mais ce serait trop facile si l’on pouvait s’en contenter. Il faut plutôt envisager une action de fond, permanente, dans toutes les strates de la société. Toutefois, on peut être optimistes car la recherche montre que la population peut résister aux fake news, comme le montre l’engouement pour les fact-checkers, y compris ceux mis en place par les médias traditionnels. C’est aussi la raison pour laquelle nous nous sommes interrogés sur le risque d’une instrumentalisation politique, débouchant sur des lois sur les fake news dont l’effet serait une mise en cause de la liberté de l’information, des censures de la part des pouvoirs politiques en place, notamment lors d’élections. Le document du groupe d’experts, de ce point de vue, ne peut être accusé d’un double langage par les régimes non démocratiques, il réaffirme les principes de la liberté d’expression des citoyens, de la presse. Et il privilégie l’autorégulation des acteurs. Toutefois, il envisage d’autre leviers d’actions si cette autorégulation ne se révèle pas assez efficace.
Le rapport demande que les plates-formes numériques soient traitées comme des éditeurs responsables des contenus qu’ils diffusent et acceptent la transparence sur leurs technologies, dont les algorithmes de classements moteurs de recherche. Sentez vous que les pouvoirs publics sont près à s’attaquer à Facebook, Google ou Twitter sur ces points cruciaux ?
Divina Frau-Meigs : les représentants des plateformes – Google, Twitter, Facebook – ont reconnu, dans le cadre de cette discussion entre experts, qu’elles sont des médias avec les responsabilités afférentes. Ils se sont bien rendu compte qu’il sont de facto des médias intervenant dans l’espace public démocratique et non de simples entreprises commerciales. Ces responsabilités débouchent inéluctablement sur des obligations juridiques et morales. Ils ont donc accepté d’aller vers un code de conduite fondé sur 10 principes non négociables (2). C’est une avancée de l’autorégulation, les codes seront négociés et mis en place par eux. Il faut une formation de tous les employés de ces plate-formes à ce code qui vise en priorité les faux comptes à désactiver, les faux commentaires, donc plus les moyens de diffusion des fausses informations que les contenus eux-mêmes. Cette démarche les remet dans le giron d’une discussion démocratique plus équilibrée avec les Etats. Mais cette autorégulation, dès lors qu’elle atteint ses limites, renvoie la balle dans le camp des Etats qui peuvent alors exiger, par la loi ou le règlement, la transparence sur les algorithmes ou la mise à disposition des données pour les chercheurs. Les Etats disposent toujours d’une épée de Damoclès avec la menace d’une enquête sectorielle sur la publicité dérivée de la dissémination de fakes news, qui sera vue comme une pratique publicitaire indue que l’on peut condamner. Et là, il suffira qu’un pays donne l’exemple pour qu’un effet domino emporte tout. Les plate-formes numériques sont bien conscientes du risque pour elles car le moment est opportun pour une action de ce type. La situation permet une négociation au plus haut niveau avec ces entreprises.
Les médias sont présentés comme des outils utiles dans la lutte contre la désinformation, mais jouent-ils vraiment ce rôle aujourd’hui ?
Divina Frau-Meigs : le phénomène des fake news est aussi un rappel à l’ordre pour l’ensemble de la presse. Les médias de masse ont besoin d’une nouvelle chance de revoir leurs missions fondamentales, d’être trouvables sur le net et d’apporter des informations de qualité. Le faux attire l’humain parce que nous sommes construits cognitivement à réagir au nouveau, au différent. Il faut recréer du dialogue entre média de masse et médias des masses – ce que les plate-formes permettent avec l’expression de tous – en faveur de faits vérifiés. Il y a une prise de conscience d’un certain abandon de la presse par les pouvoirs publics devant la déferlante numérique. Les gouvernements ont laissé se déliter la situation, avec la perte de moyens publicitaires, la difficulté à se numériser, la concentration. Or, le fonctionnement de nos sociétés démocratiques suppose l’intervention d’une presse libre, pluraliste, visible (« trouvable » sur internet), ayant les moyens de fabriquer et diffuser une information fiable pour les citoyens.
Propos recueillis par Sylvestre Huet
(1) Le groupe comprenait des universitaires, des représentants de groupes de presse, de fact checkers mais aussi d’acteurs industriels du numérique comme Google, Twitter et Facebook.
(2)
1. Platforms should adapt their advertising policies, including adhering to
« follow-the-money » principle, whilst preventing incentives that leads to
disinformation, such as to discourage the dissemination and amplification
of disinformation for profit. These policies must be based on clear,
transparent, and non-discriminatory criteria;
2. Platforms should ensure transparency and public accountability with
regard to the processing of users’ data for advertisement placements, with
due respect to privacy, freedom of expression and media pluralism;
3. Platforms should ensure that sponsored content, including political
advertising, is appropriately distinguished from other content;
4. Platforms should take the necessary measures to enable privacycompliant
access to data for fact-checking and research activities;
5. Platforms should make available to their users advanced settings and
controls to empower them to customise their online experience;
6. Platforms should, in cooperation with public and private European news
outlets, where appropriate take effective measures to improve the visibility
of reliable, trustworthy news and facilitate users’ access to it;
7. Where appropriate, trending news items should, if technically feasible, be
accompanied by related news suggestions;
8. Platforms should, where appropriate, provide user-friendly tools to
enable users to link up with trusted fact-checking sources and allow users
to exercise their right to reply;
9. Platforms that apply flagging and trust systems that rely on users should
design safeguards against their abuse by users;
10. Platforms should cooperate by i.a. providing relevant data on the
functioning of their services including data for independent investigation
by academic researchers and general information on algorithms in order to
find a common approach to address the dissemination and amplification of
disinformation.
php
Aucun commentaire:
Enregistrer un commentaire