Menu

Comment les plates-formes de médias sociaux se préparent-elles à l’élection et aux conséquences

3 novembre 2020 - Gadget Geek
Comment les plates-formes de médias sociaux se préparent-elles à l’élection et aux conséquences


Illustration de l'article intitulé Comment les plateformes de médias sociaux se préparent à l'élection et à ses conséquences

Photo: Greg Nash-Pool / Getty Images (Getty Images)

Alors que les magasins sont à court contre-plaqué barricades, armes à feu voler des étagèreset le président planifie pas Pour s’engager à un transfert pacifique du pouvoir, les entreprises de médias sociaux ont développé à contrecœur des plans d’urgence pour le jour des élections et la confusion qui va sûrement s’ensuivre. Contre la plupart de ces politiques, il y a les scénarios probables selon lesquels 1) un candidat revendiquera la victoire avant que les résultats ne soient déterminés et 2) il y aura un certain niveau de violence, potentiellement stimulé par la désinformation. Jetons un coup d’œil à ce qu’ils font pour atténuer ce problème.

Gardez à l’esprit que ces entreprises parlent souvent d’un bon jeu, mais ne parviennent pas à modérer le contenu à la hauteur de leurs normes auto-imposées. En tant que tels, nous continuons de prier pour qu’une éruption solaire anéantisse Internet aujourd’hui, mais les chances que quelque chose de bon se passe cette année ne sont tout simplement pas en notre faveur.


Facebook et Instagram

Facebook a pris beaucoup de chaleur méritoire pour son rôle en permettant à la désinformation de s’épanouir lors des élections de 2016. Depuis lors, il s’est investi dans la lutte contre ce type de comportement ou du moins pour donner aux journalistes l’impression qu’il le fait.

Dans cette dernière catégorie, Facebook a lancé son «cellule de crise»D’experts, qui, selon lui, ont travaillé contre la désinformation électorale dans le passé, notamment en supprimant rapidement les mensonges selon lesquels la date des élections brésiliennes de 2018 a été reportée et en étouffant les appels à la violence dans le pays. Facebook dit également, dans un récent article de blog intitulé « Se préparer pour le jour du scrutin», Que l’entreprise compte 35 000 personnes sur la liste de paie« qui travaillent sur des questions de sûreté et de sécurité »comme les comportements non authentiques coordonnés, les campagnes de désinformation et l’ingérence des électeurs. C’est un nombre impressionnant à vanter, même s’il semble que ce ne soit que le nombre de modérateurs de contenu que Facebook emploie déjà et ne semble pas avoir augmenté au moins un an.

De manière proactive, l’entreprise mis en pause l’achat de nouvelles publicités politiques la semaine dernière, pour une durée indéterminée, pour «réduire les risques de confusion ou d’abus». Et l’année dernière, il a lancé un bibliothèque d’annonces base de données contenant des informations sur les dépenses des annonceurs et les raisons des suppressions d’annonces. Malheureusement, les bugs et l’utilisation intensive par les chercheurs lors de situations pour lesquelles il a été conçu (comme les élections américaines) ont tendance à le faire. moins que fiable. Et à court terme, Facebook prétend avoir temporairement arrêté de recommander pages politiques aux utilisateurs.

Facebook étiquettera de manière caractéristique, pas supprimer, un message d’un parti ou d’un candidat qui revendique prématurément la victoire. Au lieu de cela, une correction informera les utilisateurs que « les votes sont toujours comptés ». Facebook ne dit pas ce qu’il fera si une page ou un utilisateur non-parti ou non candidat déclare une victoire de Donald Trump ou Joe Biden, mais la plate-forme note qu’elle met une grande inscription sur le site au cas où il y aurait une confusion. :

Si le candidat déclaré vainqueur par les principaux médias est contesté par un autre candidat ou parti, nous afficherons le nom du candidat gagnant déclaré avec des notifications en haut de Facebook et Instagram, ainsi que des publications d’étiquettes des candidats à la présidentielle, avec le nom du gagnant déclaré et un lien vers le centre d’information sur le vote.

Quant à la violence, dans le même post du début du mois dernier, il est indiqué que:

[W]Lorsque nous en prendrons conscience, nous supprimerons également les appels aux gens à participer à l’observation des sondages lorsque ces appels utilisent un langage militarisé ou suggèrent que l’objectif est d’intimider, d’exercer un contrôle ou d’afficher un pouvoir sur les responsables électoraux ou les électeurs.

Il semble n’avoir aucun plan spécifique pour la violence en dehors des bureaux de vote et s’appuiera sur les politiques existantes qui interdisent les «mouvements sociaux militarisés» et appellent à la violence. Nous devrons faire confiance à la capacité de Facebook à éviter une autre «erreur opérationnelle», telle que 455 rapports d’utilisateurs de violence potentielle qu’elle a ignorée avant la fusillade de Kenosha.

Pour le baril de poudre que nous attendons dans les jours à venir: Facebook aurait prévoit de déployer des mesures de sécurité spéciales pour ralentir le contenu viral, généralement réservées aux pays «à risque» comme le Myanmar. Notre démocratie est forte et saine.

Twitter

Twitter est bien sûr le mégaphone préféré de Trump. Mais il s’est au moins un peu positionné comme anti-Facebook, ne capitulant plus totalement devant les conservateurs et proposant de manière proactive des vérifications des faits.

Contrairement à Facebook, Twitter a bloqué toutes les annonces de la campagne. Et au cours de l’année écoulée, la société a lancé une gamme créative de nouveaux formats d’étiquettes en grande partie sur la chronologie de Trump: enlever quelques tweets, cacher les autres, et entourant les autres avec un contexte factuel. Il ne prévoit pas non plus de supprimer les affirmations non fondées de victoire de Trump (ou de Biden), mais l’étiquetage de Twitter sera plus visible, ne plaira probablement à personne et débarquera le PDG Jack Dorsey dans une autre session du tribunal kangourou.

Lundi matin, dans un fil de tweet, Twitter aménagé son plan de résultats des élections, promettant que si un candidat revendique la victoire prématurément, il apposera une étiquette indiquant que les sources officielles n’ont pas encore annoncé les résultats; un avertissement apparaîtra également avant que les utilisateurs ne tentent de le retweeter. Ils considéreront un résultat officiel une fois qu’il aura été confirmé par un responsable électoral de l’État ou par au moins deux des médias suivants: ABC News, Associated Press, CBS News, CNN, Decision Desk, Fox News ou NBC News. Notamment, le New York Times ne figure pas sur la liste.

La société prévoit également d’ajouter un avertissement ou de supprimer le contenu «incitant à l’ingérence dans l’élection, encourageant une action violente ou d’autres préjudices physiques».

Youtube

Contrairement à Facebook et Twitter, YouTube n’a pas annoncé une vague de nouvelles politiques. Chef de produit Neal Mohan Raconté le New York Times que l’entreprise suivra la procédure standard et, si nécessaire, les hauts fonctionnaires de YouTube prendront des décisions «nuancées».

YouTube utilisera son Bureau du renseignement, une équipe formée en 2018, qui surveille les tendances émergentes et dangereuses. Semblable aux bannières qu’il a placées dans les résultats de recherche avec des liens vers des informations sur le vote, il comprendra des bannières pour les résultats des élections le jour du scrutin. En vertu des directives communautaires existantes, il a été supprimé des vidéos qui induisent les téléspectateurs en erreur sur le lieu et la façon de voter, et démonétisent celles qui contiennent des affirmations susceptibles de priver les électeurs de leurs droits de vote.

La déclaration de victoire prématurée d’un candidat dépendrait du contexte, a déclaré YouTube à Gizmodo. S’il incluait une incitation à la violence, YouTube supprimerait la vidéo pour violation ses politiques, mais prétendre à tort «j’ai gagné» viendrait simplement avec une étiquette de résultats électoraux. Mais, selon YouTube, c’est là que sa politique réduire la propagation de désinformation se déclencherait, sous la forme de donner la priorité à des sources d’informations fiables.

TIC Tac

En plus d’être jeté dans le jeu de pouvoir politique le plus stupide de tous les temps, TikTok a heureusement évité la controverse autour de la censure du discours des politiciens, peut-être parce que sa base d’utilisateurs de base n’est même pas en âge de voter. L’année dernière, il a également interdit publicités politiques payantes et contenu sponsorisé.

TikTok dit qu’il s’associera à des vérificateurs de faits pour «réduire la découvrabilité» du contenu dans lequel un candidat ou un utilisateur tente d’annoncer prématurément une victoire. Il a également déclaré qu’il utiliserait l’Associated Press comme source faisant autorité pour les résultats, et que «par prudence, si les affirmations ne peuvent pas être vérifiées ou si la vérification des faits n’est pas concluante, nous limiterons la distribution du contenu.  » Tout contenu qui tente de supprimer le vote sera accompagné d’un guide électoral bannière. TikTok revendique également qu’elle collabore avec le Département de la sécurité intérieure afin d’empêcher toute ingérence étrangère.

Reddit

Reddit n’a pas encore intégré la tendance à étiqueter la désinformation, mais supprimera-t-il objectivement les informations fausses sur l’élection? Pas clair. Interrogé sur ses plans pour l’élection, un porte-parole de Reddit a déclaré à Gizmodo que, globalement, «Reddit politique de contenu est conçu pour être flexible pour traiter différentes formes de manipulation de contenu ou de désinformation. » Le porte-parole a poursuivi en nommant des informations erronées qui sapent l’engagement civil ou la fausse déclaration des résultats des élections – mais la liste exceptionnellement courte de règles de Reddit ne mentionne pas la désinformation. «Nous avons des équipes dédiées qui appliquent nos politiques à l’échelle du site et s’attaquent de manière proactive aux mauvais acteurs du site», a ajouté le porte-parole. «Et nous avons créé des outils internes pour détecter et supprimer les contenus non conformes aux règles.»

L’équipe de sécurité de Reddit a élaboré un peu, et leur plan semble être en grande partie: laissons les utilisateurs décider. « Downvoter et signaler toute éventuelle désinformation électorale, en particulier la désinformation sur la manière, l’heure ou le lieu de vote », lit-on dans un rapport de sécurité du mois dernier.

Bien que ses communautés ne les appliquent pas toujours de manière cohérente, Reddit a des politiques existantes contre appels à la violence, et ne semble pas en avoir développé de nouveaux pour cette élection.

Si vous êtes témoin ou suspectez une ingérence électorale, appelez l’American Civil Liberties Union Hotline de protection électorale: 1-800-NOTRE-VOTE (1-800-687-8683).