Qu’est-ce que le Code de bonnes pratiques contre la désinformation ?
Le Code de bonnes pratiques contre la désinformation est constitutif d’un ensemble de règles qui s’appliquent aux plateformes en lignes et qui encadre notamment la lutte contre la désinformation.
Ce code contient un total de 128 règles spéciales concernant par exemple la vérification des faits, ce dont nous allons discuter dans le cadre de ce développement. Des plateformes se sont engagés à l’égard de ce code et de ses mesures qui est appelé à devenir un code de conduite. Il convient de noter que l’ensemble des plateformes concernées adhèrent de manière strictement volontaire à son contenu et sont en mesure de se défaire quand bon leur semble de certaines mesures. Le Code permettra aux plateformes concernées de vérifier qu’elles sont en conformité au Digital Services Act (ou DSA) peu importe par ailleurs qu’elles soient ou pas finalement signataires.
Les inquiétudes formulées par l’European Fact-Checking Standards Network (EFCSN)
L’EFCSN a dernièrement formulé des inquiétudes inhérentes au retrait décidé par des plateformes inhérent à des engagements pris en 2022 concernant le Code de bonnes pratiques contre la désinformation. Ce qui pose souci, principalement, réside dans un retrait intégral de certaines plateformes, à l’instar de Google, du chapitre relatif à la vérification des faits. Ce retrait résulte donc sur le constat suivant : il ne sera plus possible pour leurs utilisateurs d’obtenir des informations fiables concernant les contenus auxquels ils accèdent. Ceci pose d’autant plus question que cette vérification a fait ses preuves dans la lutte instaurée contre les désinformations et qu’elle n’empêche en rien la liberté d’expression de s’exercer.
Les règles contenues au sein dudit code, inhérentes à cette vérification des faits, est le fruit d’un travail collectif auquel ont par ailleurs participé ces entreprises. Ce retrait interroge dans la mesure où les règles contenues dans ce code et qui sont appliquées prennent en pouvoir. L’EFCSN n’est pas totalement inquiète quant à ce retrait en ce que le code constitue l’une des bases au Digital Services Act quant à son application. Toutefois, elle a émis des inquiétudes quant à des conditions formulées par certaines plateformes qui ont décidé de soumettre leur propre choix final sur les décisions finalement prises par d’autres plateformes.
- Cours : Utilisation abusive de la liberté d'expression
- Cours : Liberté d'expression - Cas de la COVID-19
Un retrait véritablement surprenant ?
Si ces retraits inquiètent, il n’en demeure pas moins qu’ils ne sauraient constituer la nature d’une véritable surprise en ce que les engagements qui avaient été pris en 2022 n’étaient ni fermes, ni définitifs. Sur la base de ces engagements initiaux, un rapport a finalement été publié l’année dernière. Il est clair, au vu du contenu de ce rapport, que les engagements qui ont effectivement été pris n’ont pas atteint le résultat escompté. Cette publication devait permettre de démontrer aux plateformes concernées qu’il leur était nécessaire de prévoir de nouvelles règles internes concernant la désinformation et surtout de s’inscrire dans la même lignée que le Code en cause.
Le Code n’est en rien muet sur ce qui peut et devrait être mis en œuvre par les plateformes concernant la lutte contre la désinformation. Il s’agit, entre autres, d’instaurer un travail collaboratif avec des vérificateurs de faits mais également de véritablement inclure cette même vérification dans les plateformes en cause. La question de cette vérification et de son atout majeur réside dans le constat selon lequel la justice, la liberté et la démocratie de nos sociétés en dépendent. Cette vérification aide à lutter contre la désinformation quand les utilisateurs souhaitent accéder à des espaces informationnels et leur permet in fine de se faire une opinion vérifiée émanant de sources sûres. Derrière ces vérifications se retrouvent des professionnels, des vérificateurs, qui doivent dans leur pratique respecter un certain nombre de règles déterminées notamment par l’EFCSN ; leur travail constitue des sources fiables d’information parmi tout un ensemble d’informations qui, pour leur part, ne sont pas nécessairement fiables.
Le fait d’apposer sur une information, un contenu une telle étiquette est importante pour tout utilisateur en ce qu’ils sont donc en mesure de se faire une opinion éclairée quant aux contenu effectivement consommé et éventuellement partagé avec d’autres utilisateurs. Il est intéressant de noter que des études ont été menées et leurs résultats démontrent clairement qu’elles sont d’une efficacité remarquable et ce, même concernant des utilisateurs particulièrement sceptiques quant aux professionnels, vérificateurs de faits.
Quid enfin des Community Notes ? Le réseau social X a proposé l’introduction de ce que l’entreprise appelle les Community Notes. Il s’agit là d’une forme relativement peu contraignante de modération pour les contenus partagés en ligne. Des études ont été menées à leur égard et les conclusions sont sans appel : il n’existe en effet aucune preuve que leur mise en place ait de manière significative « réduit l’engagement avec des tweets trompeurs ». Il est aussi précisé que cette procédure ne permet pas de répondre en temps réel et de manière efficace lorsqu’elle s’applique à un contenu viral. De même, se posa la question des motivations politiques qui peuvent se cacher derrière ces Community Notes.
Comme souvent concernant les questions relatives à des règles juridiques qui s’appliquent au sein de l’Union européenne, et parfois de règles émanant directement des institutions de cette organisation internationale, il nous faut conclure sur le fait que les citoyens européens se doivent d’être suffisamment protégés contre toute forme de désinformation et surtout que ces mêmes institutions démontrent davantage de courage politique pour contraindre les plateformes à coopérer et respecter les règles édictées en la matière.
Références
https://digital-strategy.ec.europa.eu/fr/policies/code-practice-disinformation
https://www.futura-sciences.com/tech/breves/internet-google-lache-bombe-regulation-fake-news-10366/
https://www.socialistsanddemocrats.eu/fr/newsroom/les-eurodeputes-sd-exhortent-meta-assumer-ses-responsabilites-numeriques-dans-la-lutte
https://www.lesechos.fr/tech-medias/hightech/les-community-notes-cette-moderation-light-qui-fait-les-affaires-de-x-et-meta-2141391