Menu

Un projet d’apprentissage automatique vise la désinformation

3 mai 2021 - Technologies
Un projet d’apprentissage automatique vise la désinformation


Il n’y a rien de nouveau dans les théories du complot, la désinformation et les contre-vérités en politique. Quoi est La nouveauté est la rapidité avec laquelle des acteurs malveillants peuvent propager de la désinformation lorsque le monde est étroitement connecté sur les réseaux sociaux et les sites d’informations sur Internet. Nous pouvons abandonner le problème et compter sur les plates-formes elles-mêmes pour vérifier les faits ou les articles et éliminer la désinformation – ou nous pouvons créer de nouveaux outils pour aider les gens à identifier la désinformation dès qu’elle traverse leurs écrans.

Preslav Nakov est informaticien au Qatar Computing Research Institute à Doha, spécialisé dans le traitement de la parole et du langage. Il dirige un projet utilisant l’apprentissage automatique pour évaluer la fiabilité des sources médiatiques. Cela permet à son équipe de rassembler des articles de presse ainsi que des signaux sur leur fiabilité et leurs préjugés politiques, le tout dans un format similaire à Google Actualités.

«Il est impossible de vérifier les faits sur chaque affirmation dans le monde», explique Nakov. Au lieu de cela, concentrez-vous sur la source. «J’aime dire que vous pouvez vérifier les fausses nouvelles avant même qu’elles ne soient écrites.» L’outil de son équipe, appelé le Tanbih News Aggregator, est disponible en arabe et en anglais et rassemble des articles dans des domaines tels que les affaires, la politique, les sports, la science et la technologie et le covid-19.

Business Lab est hébergé par Laurel Ruma, directeur éditorial d’Insights, la division d’édition personnalisée de MIT Technology Review. Le spectacle est une production de MIT Technology Review, avec l’aide à la production de Collective Next.

Ce podcast a été produit en partenariat avec la Qatar Foundation.

Afficher les notes et les liens

Agrégateur de nouvelles Tanbih

Institut de recherche informatique du Qatar

«Même la meilleure IA pour détecter les fausses nouvelles est toujours terrible», MIT Technology Review, 3 octobre 2018

Transcription complète

Laurel Ruma: De MIT Technology Review, je m’appelle Laurel Ruma, et voici Business Lab, le salon qui aide les chefs d’entreprise à comprendre les nouvelles technologies qui sortent du laboratoire et qui arrivent sur le marché. Notre sujet aujourd’hui est la désinformation. Des fausses nouvelles, à la propagande, en passant par les faux profonds, il peut sembler qu’il n’y a pas de défense contre les nouvelles militarisées. Cependant, les scientifiques recherchent des moyens d’identifier rapidement la désinformation pour aider non seulement les régulateurs et les entreprises technologiques, mais aussi les citoyens, alors que nous naviguons tous ensemble dans ce nouveau monde courageux.

Deux mots pour vous: propager l’infodémie.

Mon invité est le Dr Preslav Nakov, qui est chercheur principal au Qatar Computing Research Institute. Il dirige le projet Tanbih, qui a été développé en collaboration avec le MIT. Il est également le chercheur principal d’un projet de collaboration QCRI MIT sur le traitement de la parole et du langage en arabe pour la recherche d’informations et la vérification des faits dans plusieurs langues. Cet épisode de Business Lab est réalisé en association avec la Qatar Foundation. Bienvenue, docteur Nakov.

Preslav Nakov: Merci de m’avoir.

Laurel Ruma: Alors pourquoi sommes-nous inondés de tant de désinformation en ligne en ce moment? Ce n’est pas un problème nouveau, non?

Nakov: Bien sûr, ce n’est pas un problème nouveau. Ce n’est pas le cas que ce soit la première fois dans l’histoire de l’univers que les gens disent des mensonges ou que les médias disent des mensonges. Nous avions la presse jaune, nous avions tous ces tabloïds pendant des années. C’est devenu un problème à cause de l’essor des médias sociaux, quand il est soudainement devenu possible d’avoir un message que vous pouvez envoyer à des millions et des millions de personnes. Et non seulement cela, vous pouvez maintenant dire des choses différentes à différentes personnes. Ainsi, vous pouvez microprofiler des personnes et leur transmettre un message personnalisé spécifique qui est conçu, conçu pour une personne spécifique avec un but spécifique pour appuyer sur un bouton spécifique. Le principal problème des fausses nouvelles n’est pas qu’elles soient fausses. Le principal problème est que la nouvelle a été effectivement transformée en arme, et c’est quelque chose dont se plaint Sir Tim Berners-Lee, le créateur du World Wide Web: que son invention a été militarisée.

Laurier: Oui, Tim Berners-Lee est manifestement désemparé que cela se soit produit, et ce n’est pas seulement dans un pays ou un autre. C’est en fait dans le monde entier. Alors, y a-t-il une différence réelle entre les fausses nouvelles, la propagande et la désinformation?

Nakov: Bien sûr, il y en a. Je n’aime pas le terme «fake news». C’est le terme qui a repris: il a été déclaré «mot de l’année» par plusieurs dictionnaires au cours des différentes années, peu après la précédente élection présidentielle aux États-Unis. Le problème avec les fausses nouvelles est que, tout d’abord, il n’y a pas de définition claire. J’ai cherché dans les dictionnaires, comment ils définissent le terme. Un dictionnaire majeur a dit: «Nous n’allons pas vraiment définir le terme du tout, parce que c’est quelque chose d’auto-explicatif – nous avons des« nouvelles », nous avons des« fausses », et ce sont des nouvelles qui sont fausses; c’est compositionnel; il a été utilisé au XIXe siècle – il n’y a rien à définir. Différentes personnes donnent un sens différent à cela. Pour certaines personnes, les fausses nouvelles ne sont que des nouvelles qu’elles n’aiment pas, qu’elles soient ou non fausses. Mais le principal problème avec les fausses nouvelles est qu’elles induisent en erreur les gens, et malheureusement même certaines grandes organisations de vérification des faits, de ne se concentrer que sur une seule chose, qu’elle soit vraie ou non.

Je préfère, et la plupart des chercheurs travaillant sur ce sujet préfèrent, le terme «désinformation». Et c’est un terme qui est adopté par de grandes organisations comme les Nations Unies, l’OTAN, l’Union européenne. Et la désinformation est quelque chose qui a une définition très claire. Il comporte deux volets. Premièrement, c’est quelque chose de faux, et deuxièmement, il a une intention malveillante: l’intention de nuire. Et encore une fois, la grande majorité des recherches, la grande majorité des efforts, de nombreuses initiatives de vérification des faits, se concentrent sur la question de savoir si quelque chose est vrai ou non. Et c’est généralement la deuxième partie qui est réellement importante. La partie s’il y a une intention malveillante. Et c’est en fait ce dont parlait Sir Tim Berners-Lee lorsqu’il a parlé pour la première fois de la militarisation des informations. Le principal problème avec les fausses nouvelles – si vous parlez aux journalistes, ils vous le diront – le principal problème avec les fausses nouvelles n’est pas qu’elles soient fausses. Le problème est que c’est une arme politique.

Et la propagande. Qu’est-ce que la propagande? La propagande est un terme orthogonal à la désinformation. Encore une fois, la désinformation comporte deux éléments. C’est faux et il a une intention malveillante. La propagande comporte également deux éléments. Premièrement, quelqu’un essaie de nous convaincre de quelque chose. Et deuxièmement, il y a un objectif prédéfini. Maintenant, nous devons faire attention. La propagande n’est pas vraie; ce n’est pas faux. Ce n’est pas bon; Ce n’est pas mauvais. Cela ne fait pas partie de la définition. Ainsi, si un gouvernement mène une campagne pour persuader le public de se faire vacciner, vous pouvez faire valoir que c’est dans un bon but, ou disons que Greta Thunberg essaie de nous faire peur que des centaines d’espèces disparaissent chaque jour. C’est une technique de propagande: faire appel à la peur. Mais vous pouvez dire que c’est pour une bonne raison. Donc, la propagande n’est pas mauvaise; Ce n’est pas bon. Ce n’est pas vrai; ce n’est pas faux.

Laurier: Mais la propagande a pour but de faire quelque chose. Et, et en forçant cet objectif, il fait vraiment appel à ce facteur de peur. Voilà donc la distinction entre désinformation et propagande, c’est la peur.

Nakov: Non, la peur n’est qu’une des techniques. Nous avons étudié cela. Ainsi, de nombreuses recherches se sont concentrées sur la classification binaire. Est-ce vrai? Est-ce faux? Est-ce de la propagande? N’est-ce pas de la propagande? Nous avons examiné un peu plus en profondeur. Nous nous sommes penchés sur les techniques utilisées pour faire de la propagande. Et encore une fois, vous pouvez parler de propagande, vous pouvez parler de persuasion ou de relations publiques, ou de communication de masse. C’est fondamentalement la même chose. Différents termes pour à peu près la même chose. Et en ce qui concerne les techniques de propagande, il en existe deux types. Le premier type est un appel aux émotions: il peut être un appel à la peur, il peut être un appel à des émotions fortes, il peut être un appel à des sentiments patriotiques, etc. Et l’autre moitié sont des erreurs logiques: des choses comme l’erreur en noir et blanc. Par exemple, vous êtes soit avec nous, soit contre nous. Ou train en marche. Le train en marche, c’est comme, oh, le dernier sondage montre que 57% vont voter pour Hillary, donc nous sommes du bon côté de l’histoire, vous devez nous rejoindre.

Il existe plusieurs autres techniques de propagande. Il y a hareng rouge, il y a obscurcissement intentionnel. Nous avons examiné 18 d’entre eux: la moitié d’entre eux font appel aux émotions, et la moitié d’entre eux utilisent certains types d’erreurs logiques ou de raisonnement logique brisé. Et nous avons construit des outils pour détecter ceux-ci dans les textes, afin que vous puissiez vraiment les montrer à l’utilisateur et rendre cela explicite, afin que les gens puissent comprendre comment ils sont manipulés.

Laurier: Ainsi, dans le contexte de la pandémie de covid-19, le directeur général de l’Organisation mondiale de la santé a déclaré, et je cite: «Nous ne combattons pas seulement une épidémie; nous combattons une infodémie. » Comment définissez-vous l’infodémie? Quelles sont certaines de ces techniques que nous pouvons utiliser pour éviter également les contenus préjudiciables?

Nakov: Infodémique, c’est quelque chose de nouveau. En fait, MIT Technology Review avait il y a environ un an, l’année dernière en février, un excellent article qui en parlait. La pandémie de covid-19 a donné lieu à la première infodémie mondiale des médias sociaux. Et encore une fois, à peu près à la même époque, l’Organisation mondiale de la santé, en février, avait sur son site Web une liste des cinq principales priorités dans la lutte contre la pandémie, et la lutte contre l’infodémie était numéro deux, numéro deux dans la liste des meilleurs. cinq priorités. Donc, c’est définitivement un gros problème. Qu’est-ce que l’infodémie? C’est la fusion d’une pandémie et de la désinformation préexistante qui était déjà présente dans les médias sociaux. C’est aussi un mélange de désinformation politique et sanitaire. Avant cela, la partie politique et, disons, le mouvement anti-vaxxer, ils étaient séparés. Maintenant, tout est mélangé.

Laurier: Et c’est un vrai problème. Je veux dire, la préoccupation de l’Organisation mondiale de la santé devrait être de lutter contre la pandémie, mais sa deuxième préoccupation est de lutter contre la désinformation. Trouver de l’espoir dans ce genre de peur est très difficile. L’un des projets sur lesquels vous travaillez s’appelle donc Tanbih. Et Tanbih est un agrégateur de nouvelles, non? Cela révèle la désinformation. Le projet lui-même a donc un certain nombre d’objectifs. La première consiste à découvrir la position, les préjugés et la propagande dans les nouvelles. Le second est de promouvoir différents points de vue et d’engager les utilisateurs. Mais alors le troisième est de limiter l’effet des fausses nouvelles. Comment fonctionne Tanbih?

Nakov: Tanbih a en effet commencé comme un agrégateur de nouvelles, et il est devenu quelque chose d’assez plus grand que cela, en un projet, qui est un méga-projet au Qatar Computing Research Institute. Et il englobe des personnes de plusieurs groupes de l’institut, et il est développé en coopération avec le MIT. Nous avons démarré le projet dans le but de développer des outils que nous pouvons effectivement mettre entre les mains des utilisateurs finaux. Et nous avons décidé de le faire dans le cadre d’un agrégateur de nouvelles, pensez à quelque chose comme Google Actualités. Et au fur et à mesure que les utilisateurs lisent les actualités, nous leur signalons quand quelque chose est propagandiste et nous leur fournissons des informations générales sur la source. Ce que nous faisons, c’est que nous analysons les médias à l’avance et nous construisons des profils médiatiques. Nous montrons donc, en disant aux utilisateurs à quel point le contenu est propagandiste. Nous leur disons si les informations proviennent d’une source fiable ou non, si elles sont biaisées: biais de gauche, centre, droite. Que ce soit extrême: extrême gauche, extrême droite. Aussi, s’il est biaisé par rapport à des sujets spécifiques.

Et c’est quelque chose de très utile. Alors, imaginez que vous lisez un article sceptique sur le réchauffement climatique. Si nous vous disons, regardez, ce média a toujours été très biaisé de la même manière, alors vous le prendrez probablement avec un grain de sel. Nous montrons également la perspective du reporting, du cadrage. Si vous y réfléchissez, covid-19, Brexit, tout événement majeur peut être rapporté sous différents angles. Par exemple, prenons covid-19. Il a un aspect sanitaire, c’est sûr, mais il a aussi un aspect économique, voire politique, il a un aspect qualité de vie, il a un aspect droits de l’homme, un aspect juridique. Ainsi, nous profilons les médias et nous permettons aux utilisateurs de voir quel est leur point de vue.

En ce qui concerne les profils multimédias, nous les exposons en outre en tant que plug-in de navigateur, de sorte que lorsque vous visitez différents sites Web, vous pouvez réellement cliquer sur le plug-in et obtenir de très brèves informations générales sur le site Web. Et vous pouvez également cliquer sur un lien pour accéder à un profil plus détaillé. Et c’est très important: l’accent est mis sur la source. Encore une fois, la plupart des recherches se sont concentrées sur «cette affirmation est-elle vraie ou non?» Et cette nouvelle est-elle vraie ou non? Ce n’est que la moitié du problème. L’autre moitié est en fait de savoir si cela est nocif, ce qui est généralement ignoré.

L’autre chose est que nous ne pouvons pas vérifier les faits sur chaque réclamation dans le monde. Pas manuellement, pas automatiquement. Manuellement, c’est hors de question. Il y a environ deux ans, il y a eu une étude du MIT Media Lab, dans laquelle ils ont mené une vaste étude sur de très nombreux tweets. Et il a été démontré que les fausses informations vont six fois plus loin et se propagent beaucoup plus rapidement que les informations réelles. Il y a eu une autre étude qui est beaucoup moins connue, mais je la trouve très importante, qui montre que 50% de la propagation à vie de certaines fausses nouvelles très virales se produit dans les 10 premières minutes. Dans les 10 premières minutes! La vérification manuelle des faits prend un jour ou deux, parfois une semaine.

Vérification automatique des faits? Comment pouvons-nous vérifier une réclamation? Eh bien, si nous avons de la chance, si l’on prétend que l’économie américaine a augmenté de 10% l’année dernière, cette affirmation que nous pouvons vérifier automatiquement facilement, en consultant Wikipédia ou un tableau statistique. Mais s’ils disent, il y a eu une bombe dans cette petite ville il y a deux minutes? Eh bien, nous ne pouvons pas vraiment le vérifier, car pour le vérifier automatiquement, nous devons avoir des informations quelque part. Nous voulons voir ce que les médias vont écrire à ce sujet ou comment les utilisateurs vont y réagir. Et les deux prennent du temps à s’accumuler. Donc, fondamentalement, nous n’avons aucune information pour le vérifier. Que pouvons-nous faire? Ce que nous proposons, c’est de passer à une granularité plus élevée, de se concentrer sur la source. Et c’est ce que font les journalistes. Les journalistes se penchent sur: y a-t-il deux sources de confiance indépendantes qui le prétendent?

Nous analysons donc les médias. Même si les mauvaises personnes font une réclamation dans les médias sociaux, elles vont probablement mettre un lien vers un site Web où l’on peut trouver toute une histoire. Pourtant, ils ne peuvent pas créer un nouveau site Web de fausses informations pour chaque fausse déclaration qu’ils font. Ils vont les réutiliser. Ainsi, nous pouvons surveiller quels sont les sites Web les plus fréquemment utilisés, et nous pouvons les analyser à l’avance. Et j’aime dire que nous pouvons vérifier les fausses nouvelles avant même qu’elles ne soient écrites. Parce que le moment où il est écrit, le moment où il est mis dans les médias sociaux et il y a un lien vers un site Web, si nous avons ce site Web dans notre base de données croissante de sites Web analysés en continu, nous pouvons immédiatement vous dire s’il s’agit d’un site Web fiable ou non. . Bien sûr, des sites Web fiables peuvent également contenir des informations médiocres, de bons sites Web peuvent parfois également être erronés. Mais nous pouvons vous donner une idée immédiate.

Au-delà de l’agrégateur de nouvelles, nous avons commencé à chercher des analyses, mais nous développons également des outils d’éducation aux médias qui montrent aux gens les techniques de propagande fines mises en évidence dans le texte: les endroits spécifiques où se déroule la propagande et son type spécifique. Et enfin, nous construisons des outils qui peuvent soutenir les fact-checkers dans leur travail. Et ce sont là encore des problèmes qui sont généralement négligés, mais extrêmement importants pour les vérificateurs de faits. À savoir, ce qui vaut la peine de vérifier les faits en premier lieu. Prenons un débat présidentiel. Il y a plus de 1 000 phrases qui ont été dites. En tant que vérificateur de faits, vous pouvez en vérifier peut-être 10 ou 20. Lesquels allez-vous vérifier les faits en premier? Quels sont les plus intéressants? Nous pouvons vous aider à prioriser cela. Ou il y a des millions et des millions de tweets sur le covid-19 quotidiennement. Et lesquels de ceux que vous aimeriez vérifier en tant que vérificateur de faits?

Le deuxième problème est la détection des allégations préalablement vérifiées. Un problème avec la technologie de vérification des faits ces jours-ci est la qualité, mais le deuxième élément est le manque de crédibilité. Imaginez une entrevue avec un politicien. Pouvez-vous mettre le politicien sur la sellette? Imaginez un système qui effectue automatiquement la reconnaissance vocale, c’est facile, puis vérifie les faits. Et soudain, vous dites: «Oh, M. X, mon IA me dit que vous avez maintenant 96% de chances de mentir. Pourriez-vous préciser ceci? Pourquoi tu mens? » Tu ne peux pas faire ça. Parce que vous ne faites pas confiance au système. Vous ne pouvez pas mettre le politicien sur place en temps réel ou lors d’un débat politique. Mais si le système revient et dit: il vient de dire quelque chose qui a été vérifié par cette organisation de vérification des faits de confiance. Et voici l’affirmation qu’il a faite, et voici l’affirmation qui a été vérifiée, et voyez, nous savons que c’est faux. Ensuite, vous pouvez le mettre sur la sellette. C’est quelque chose qui peut potentiellement révolutionner le journalisme.

Laurier: Revenons donc à ce point sur l’analyse. Pour entrer dans les détails techniques, comment Tanbih utilise-t-il l’intelligence artificielle et les réseaux de neurones profonds pour analyser ce contenu, s’il rencontre tant de données, tant de tweets?

Nakov: Au départ, Tanbih ne se concentrait pas vraiment sur les tweets. Tanbih se concentre principalement sur les médias grand public. Comme je l’ai dit, nous analysons des organes d’information entiers, afin d’être prêts. Car encore une fois, il existe un lien très fort entre les réseaux sociaux et les sites Web. Il ne suffit pas de déposer une réclamation sur le Web et de la diffuser. Cela peut se propager, mais les gens vont le percevoir comme une rumeur car il n’ya pas de source, il n’ya plus de corroboration. Donc, vous voulez toujours consulter un site Web. Et puis, comme je l’ai dit, en regardant dans la source, vous pouvez avoir une idée si vous voulez faire confiance à cette affirmation parmi d’autres sources d’information. Et l’inverse: lorsque nous profilons des médias, nous analysons le texte de ce que les médias publient.

Donc, nous dirions: « OK, examinons quelques centaines ou quelques milliers d’articles de ce média cible. » Ensuite, nous examinerions également comment ce médium se représente lui-même dans les médias sociaux. Beaucoup de ces sites Web ont également des comptes sur les réseaux sociaux: comment les gens réagissent-ils à ce qu’ils ont été publiés sur Twitter, sur Facebook? Et puis, si les médias ont d’autres types de chaînes, par exemple, s’ils ont une chaîne YouTube, nous y irons et l’analyserons également. Nous allons donc examiner non seulement ce qu’ils disent, mais comment ils le disent, et c’est quelque chose qui vient du signal de parole. S’il y a beaucoup d’attrait pour les émotions, nous pouvons en détecter une partie dans le texte, mais nous pouvons en tirer une partie du ton.

Nous examinons également ce que les autres écrivent sur ce support, par exemple, ce qui est écrit à leur sujet sur Wikipédia. Et nous mettons tout cela ensemble. Nous analysons également les images mises sur ce site Web. Nous analysons les connexions entre les sites Web. La relation entre un site Web et ses lecteurs, le chevauchement en termes d’utilisateurs entre différents sites Web. Et puis nous utilisons différents types de réseaux de neurones graphiques. Donc, en termes de réseaux neuronaux, nous utilisons différents types de modèles. Il s’agit principalement d’une représentation textuelle contextualisée profonde basée sur des transformateurs; c’est ce que vous faites généralement pour les SMS ces jours-ci. Nous utilisons également des réseaux de neurones graphiques et nous utilisons différents types de réseaux de neurones convolutifs pour l’analyse d’images. Et nous utilisons également des réseaux de neurones pour l’analyse de la parole.

Laurier: Alors qu’apprend-on en étudiant ce type de désinformation région par région ou par langue? Comment cela peut-il réellement aider les gouvernements et les organisations de soins de santé à lutter contre la désinformation?

Nakov: Nous pouvons essentiellement leur donner des informations agrégées sur ce qui se passe, sur la base d’un schéma que nous avons développé pour l’analyse des tweets. Nous avons conçu un schéma très complet. Nous avons cherché non seulement à savoir si un tweet est vrai ou non, mais aussi à savoir s’il sème la panique, ou s’il favorise la mauvaise cure, ou la xénophobie, le racisme. Nous détectons automatiquement si le tweet pose une question importante à laquelle peut-être une certaine entité gouvernementale voudra-t-elle répondre. Par exemple, une de ces questions l’année dernière était: le covid-19 va-t-il disparaître cet été? C’est peut-être une question à laquelle les autorités sanitaires voudront peut-être répondre.

D’autres choses ont offert des conseils ou discuté des mesures prises et des remèdes possibles. Nous avons donc examiné non seulement les choses négatives, les choses sur lesquelles vous pourriez agir, essayer de limiter, des choses comme la panique ou le racisme, la xénophobie – des choses comme «ne mangez pas de nourriture chinoise», «ne mangez pas de nourriture italienne». Ou des choses comme blâmer les autorités pour leur action ou leur inaction, auxquelles les gouvernements pourraient vouloir prêter attention et voir dans quelle mesure cela est justifié et s’ils veulent faire quelque chose à ce sujet. En outre, une chose importante qu’un décideur pourrait souhaiter est de surveiller les médias sociaux et de détecter les discussions sur un remède possible. Et si c’est un bon remède, vous voudrez peut-être y prêter attention. S’il s’agit d’un mauvais remède, vous voudrez peut-être aussi dire aux gens: n’utilisez pas ce mauvais remède. Et une discussion sur les mesures prises, ou un appel à l’action. S’il y a beaucoup de gens qui disent «fermez les salons de coiffure», vous voudrez peut-être savoir pourquoi ils disent cela et si vous voulez les écouter.

Laurier: Droite. Parce que le gouvernement veut surveiller cette désinformation dans le but explicite d’aider tout le monde à ne pas prendre ces mauvais remèdes, n’est-ce pas. Ne continuez pas sur la voie de penser que cette propagande ou cette désinformation est vraie. Est-ce donc une action gouvernementale pour réglementer la désinformation sur les réseaux sociaux? Ou pensez-vous qu’il appartient aux entreprises technologiques de régler le problème elles-mêmes?

Nakov: C’est donc une bonne question. Il y a deux ans, j’ai été invité par l’Assemblée de l’Union interparlementaire. Ils avaient invité trois experts et il y avait 800 parlementaires de pays du monde entier. Et pendant trois heures, ils nous ont posé des questions, faisant essentiellement le tour du sujet central: quels types de législation peuvent-ils, les parlements nationaux, adopter pour qu’ils trouvent une solution définitive au problème de la désinformation. Et, bien sûr, le consensus à la fin était que c’était un problème complexe et qu’il n’y avait pas de solution facile.

Certains types de lois jouent certainement un rôle. Dans de nombreux pays, certains types de discours de haine sont illégaux. Et dans de nombreux pays, il existe certains types de réglementations en matière d’élections et de publicités au moment des élections qui s’appliquent aux médias ordinaires et s’étendent également à l’espace Web. Et il y a eu de nombreux appels récents pour une réglementation au Royaume-Uni, dans l’Union européenne, même aux États-Unis. C’est un débat très animé, mais c’est un problème complexe et il n’existe pas de solution facile. Et il y a des acteurs importants là-bas et ces acteurs doivent travailler ensemble.

Alors une certaine législation? Oui. Mais vous avez également besoin de la coopération des entreprises de médias sociaux, car la désinformation se produit sur leurs plates-formes. Et ils sont dans une très bonne position, la meilleure position en fait, pour limiter le spread ou pour faire quelque chose. Ou pour enseigner à leurs utilisateurs, pour les éduquer, qu’ils ne devraient probablement pas diffuser tout ce qu’ils lisent. Et puis les organisations non gouvernementales, les journalistes, tous les efforts de vérification des faits, c’est aussi très important. Et j’espère que les efforts que nous, chercheurs, déployons pour créer de tels outils, seraient également utiles à cet égard.

Une chose à laquelle nous devons prêter attention, c’est qu’en matière de réglementation par voie législative, nous ne devrions pas nécessairement penser à ce que nous pouvons faire à propos de telle ou telle entreprise en particulier. Nous devrions penser davantage à long terme. Et nous devons veiller à protéger la liberté d’expression. C’est donc une sorte d’équilibre délicat.

En termes de fake news, de désinformation. Le seul cas où quelqu’un a déclaré la victoire, et la seule solution que nous ayons vue réellement fonctionner, est le cas de la Finlande. En mai 2019, la Finlande a officiellement déclaré qu’elle avait gagné la guerre contre les fausses informations. Cela leur a pris cinq ans. Ils ont commencé à travailler là-dessus après les événements de Crimée; ils se sont sentis menacés et ont lancé une campagne d’éducation aux médias très ambitieuse. Ils se sont concentrés principalement sur les écoles, mais ont également ciblé les universités et tous les niveaux de la société. Mais, bien sûr, principalement les écoles. Ils enseignaient aux élèves comment savoir si quelque chose était louche. Si cela vous met trop en colère, peut-être que quelque chose ne va pas. Comment faire, par exemple, une recherche d’image inversée pour vérifier si cette image affichée provient réellement de cet événement ou d’ailleurs. Et en cinq ans, ils ont déclaré la victoire.

Donc, pour moi, l’éducation aux médias est la meilleure solution à long terme. C’est pourquoi je suis particulièrement fier de notre outil d’analyse fine de la propagande, car il montre vraiment aux utilisateurs comment ils sont manipulés. Et je peux vous dire que j’espère qu’après que les gens auront un peu interagi avec une plate-forme comme celle-ci, ils apprendront ces techniques. Et la prochaine fois, ils les reconnaîtront d’eux-mêmes. Ils n’auront pas besoin de la plate-forme. Et c’est arrivé à moi et à plusieurs autres chercheurs qui ont travaillé sur ce problème, cela nous est arrivé, et maintenant je ne peux plus lire correctement les nouvelles. Chaque fois que je lis les actualités, je repère ces techniques car je les connais et je peux les reconnaître. Si plus de gens peuvent atteindre ce niveau, ce sera bien.

Peut-être que les entreprises de médias sociaux peuvent faire quelque chose comme ça lorsqu’un utilisateur s’inscrit sur leur plate-forme, elles pourraient demander aux nouveaux utilisateurs de suivre un cours de courte durée sur la littératie numérique, puis de réussir quelque chose comme un examen. Et puis, bien sûr, nous devrions peut-être avoir des programmes gouvernementaux comme celui-là. Le cas de la Finlande montre que si le gouvernement intervient et met en place les bons programmes, les fausses nouvelles peuvent être résolues. J’espère que les fausses nouvelles iront dans le sens du spam. Il ne sera pas éradiqué. Le spam est toujours là, mais ce n’est pas le genre de problème qu’il y a 20 ans.

Laurier: Et c’est l’éducation aux médias. Et même s’il faut cinq ans pour éradiquer ce type de désinformation ou simplement améliorer la compréhension par la société de l’éducation aux médias et de ce qu’est la désinformation, les élections ont lieu assez fréquemment. Et ce serait donc un bon endroit pour commencer à réfléchir à la façon d’arrêter ce problème. Comme vous l’avez dit, si cela devient comme du spam, cela devient quelque chose que vous traitez tous les jours, mais vous ne pensez plus ou ne vous inquiétez plus. Et cela ne va pas complètement renverser la démocratie. Cela me semble un objectif très atteignable.

Laurier: Dr Nakov, merci beaucoup de vous joindre à nous aujourd’hui pour ce qui a été une conversation fantastique sur le Business Lab.

Nakov: Merci de m’avoir.

Laurier: C’était le Dr Preslav Nakov, un scientifique principal au Qatar Computing Research Institute, avec qui j’ai parlé de Cambridge, Massachusetts, siège du MIT et du MIT Technology Review, surplombant la rivière Charles.

C’est tout pour cet épisode de Business Lab. Je suis votre hôte, Laurel Ruma. Je suis le directeur d’Insights, la division d’édition personnalisée de MIT Technology Review. Nous avons été fondés en 1899 au Massachusetts Institute of Technology. Et vous pouvez nous trouver en version imprimée, sur le Web et lors d’événements chaque année dans le monde. Pour plus d’informations sur nous et le salon, veuillez consulter notre site Web à technologyreview.com.

L’émission est disponible partout où vous obtenez vos podcasts.

Si vous avez apprécié ce podcast, nous espérons que vous prendrez un moment pour nous évaluer et nous évaluer. Business Lab est une production de MIT Technology Review. Cet épisode a été produit par Collective Next.

Cet épisode de podcast a été produit par Insights, la branche de contenu personnalisé de MIT Technology Review. Il n’a pas été produit par la rédaction du MIT Technology Review.