Menu

Fonctionnement de l’algorithme de recommandation de TikTok

25 février 2020 - Technologies
Fonctionnement de l’algorithme de recommandation de TikTok


Logo Open Source

Lorsque le chercheur en intelligence artificielle Marc Faddoul a rejoint TikTok il y a quelques jours, il a vu quelque chose concernant: Lorsqu’il a suivi un nouveau compte, les profils recommandés par TikTok semblaient étrangement, physiquement similaires à la photo de profil du premier compte. Suivre une jeune femme blonde, par exemple, a donné des recommandations pour suivre davantage de jeunes femmes blondes.

Faddoul, chercheur à l’Université de Californie à Berkeley, a voulu étudier le fonctionnement de TikTok, une plate-forme de médias sociaux basée en Chine, populaire parmi les adolescents. Il a donc commencé avec un nouveau compte, non lié à des profils sur d’autres plates-formes. Et alors qu’il suivait divers comptes, Faddoul a observé que les photos de profil des comptes recommandés semblaient très similaires à l’image de profil du compte initial.

Suivre les hommes noirs a conduit à recommander de suivre plus d’hommes noirs. Suivre les hommes blancs à barbe a produit des recommandations pour plus d’hommes blancs à barbe. Les personnes âgées suivantes ont engendré des recommandations pour d’autres personnes âgées. Et ainsi de suite.

Un graphique montrant cinq types différents de profils TikTok, tels que des hommes blancs à barbe et des hommes asiatiques, et montre que les premiers résultats recommandés finissent par avoir les mêmes traits (ils semblent également être des hommes blancs à barbe ou des hommes asiatiques).

Les recommandations initiales de Faddoul sur TikTok avaient tendance à être très similaires.
Mark Faddoul / Twitter

L’expérience TikTok de Faddoul n’était pas une étude scientifique. Il représente simplement l’expérience initiale d’un chercheur individuel sur la plate-forme. Recode a examiné les captures d’écran envoyées par Faddoul et a effectué certaines des mêmes recherches que lui. Ces recherches ont produit des résultats similaires: les suivis recommandés avaient tendance à ressembler physiquement au compte initial suivi, bien qu’il ne s’agisse pas toujours des mêmes comptes qui figuraient dans les résultats de Faddoul.

Recode a également suivi d’autres comptes sélectionnés au hasard, mais ceux-ci n’ont pas nécessairement produit de recommandations partageant une identité facilement observable. Il y avait parfois des similitudes dans le récit suivi et ceux recommandés, mais ces trains n’étaient évidemment pas physiques. Au lieu de cela, les comptes recommandés partageaient tous un intérêt, comme les comédies musicales de Broadway, le plein air ou les animaux de compagnie.

Il convient de noter qu’au moins une autre personne, commentant le fil Twitter dans lequel Faddoul a initialement publié ses résultats, a déclaré qu’ils n’étaient pas en mesure de reproduire ses résultats. Mais l’expérience de Faddoul soulève néanmoins la question de savoir comment ces moteurs de recommandation fonctionnent sur les plateformes de médias sociaux. Lorsque vous suivez quelqu’un avec certains traits démographiques, pourquoi pourriez-vous obtenir des personnes recommandées avec ces mêmes identifiants physiques? Et comment cela affecte-t-il les expériences des gens sur les réseaux sociaux?

Les plateformes essaient souvent de créer des algorithmes de recommandation qui produiront des résultats correspondant à vos intérêts. Mais ces recommandations peuvent avoir des conséquences inattendues et peuvent susciter des soi-disant bulles de filtre. (Une bulle de filtre est le résultat d’un contenu Internet hautement personnalisé qui conduit à un sentiment d’isolement.) Si vous ne suivez que des personnes sur les réseaux sociaux qui vous ressemblent ou partagent vos intérêts, par exemple, vous vous tenez coincé dans une rétroaction sans fin boucle qui pourrait déformer votre vision du monde. Si l’expérience de Faddoul est représentative de la plupart des gens sur la plate-forme, TikTok pourrait être en train d’activer le même problème qui a tourmenté d’autres plateformes de médias sociaux plus anciennes comme Twitter et Facebook.

TikTok a repoussé les conclusions de Faddoul.

« Nous n’avons pas pu reproduire des résultats similaires à ces affirmations », a déclaré un porte-parole de TikTok. « Notre recommandation de comptes à suivre est basée sur le comportement des utilisateurs: les utilisateurs qui suivent le compte A suivent également le compte B, donc si vous suivez A, vous voudrez probablement suivre également B. »

Ce processus est communément appelé filtrage collaboratif, un type d’algorithme de recommandation qui peut également apparaître sur les applications de rencontres. La façon dont ce type d’algorithme fonctionne pourrait expliquer ses résultats. Faddoul a rapidement admis que le filtrage collaboratif pourrait être en jeu.

« Ce que le filtrage collaboratif fait, c’est que si je suis un compte, il va regarder toutes les autres personnes qui ont suivi ce même compte », a expliqué Faddoul. « Et l’algorithme va sélectionner les comptes pour lesquels [there is] beaucoup de chevauchement entre les utilisateurs qui ont suivi ce compte que je viens de suivre.  »

Cependant, Faddoul a également déclaré à Recode qu’il pensait qu’il était plus probable que TikTok utilise ce qu’il appelle une fonctionnalité automatique. Ce type d’algorithme de recommandation pourrait prendre des «signaux» à partir d’images de profil pour trouver des images de profil avec des attributs similaires. Ces types de signaux seraient des corrélations entre les images, ce qui pourrait correspondre à tout, de la couleur de la peau à la barbe. L’algorithme recherche simplement des similitudes dans les photos ou les profils. Il convient de noter que dans nos recherches, Recode a trouvé de nombreuses recommandations qui n’avaient aucune ressemblance physique avec le compte initial suivi.

« Ce que je soupçonne, c’est que TikTok est en train de personnaliser l’image de profil », dit-il, « et d’utiliser ces fonctionnalités dans le moteur de recommandation. »

Mais quelle que soit la façon dont ces résultats apparaissent, un problème plus général avec les algorithmes de recommandation est qu’ils peuvent finalement confirmer nos biais préexistants.

«Les moteurs de recommandation ont tendance à créer des environnements d’informations sélectifs», a expliqué Faddoul à Recode. « Dans le cas de TikTok, c’est un peu différent, car les gens ne recherchent pas nécessairement des informations. »

Il souligne également qu’un tel système pourrait créer une boucle de rétroaction problématique. Si les influenceurs les plus suivis ont tendance à être blancs et que ceux qui sont recommandés après avoir suivi un influenceur blanc sont également blancs, cela pourrait empêcher les créateurs de couleur.

Vous voulez savoir comment cela pourrait fonctionner? L’année dernière, une équipe soutenue par Mozilla a créé un jeu en ligne appelé « Monster Match», Qui montre comment vos préférences initiales peuvent réduire les résultats que vous voyez sur toute la ligne. Vous pouvez jouez le jeu par vous-même.

Les algorithmes de recommandation sur les réseaux sociaux sont depuis longtemps controversés. Nous savons rarement comment ils fonctionnent, et leurs résultats peuvent être déroutants et parfois même effrayants. Prenez Facebook Fonctionnalité Personnes que vous connaissez peut-être, une barre latérale sur la plate-forme qui suggère des personnes avec lesquelles vous pourriez souhaiter être amis. Comme Gizmodo signalé il y a deux ans, qui semble s’appuyer sur toutes sortes de données collectées auprès des utilisateurs pour prédire les connexions potentielles. Mais le système ne recommande pas toujours les personnes que vous connaissez réellement – ou du moins, la façon dont vous pouvez être connecté n’est pas claire. Parfois, il peut recommander des personnes que nous préférons ne pas connaître, comme les patients du même psychiatre.

Il n’y a pas encore de preuve qu’il y ait quelque chose de néfaste en jeu dans l’algorithme de recommandation de TikTok. Mais les résultats de Faddoul sont étranges. Ils rappellent également que nous savons souvent peu de choses sur la façon dont les algorithmes en coulisses sur nos plateformes technologiques préférées recommandent d’autres contenus et qu’ils peuvent finir par confirmer nos biais plus souvent que nous ne le pensons.

Source ouverte est rendu possible par Omidyar Network. Tout le contenu Open Source est indépendant de la rédaction et produit par nos journalistes.