Sam. Sep 25th, 2021

Facebook a récemment ajouté un nouveau rapport à son centre de transparence. Les "contenu largement consulté» Le rapport visait ostensiblement à faire la lumière sur ce qui a été un débat de longue date : quel est le contenu le plus populaire sur Facebook ?

Le rapport de 20 pages a soulevé plus de questions que de réponses. Par exemple, il a montré que l'URL la plus consultée était un site Web apparemment obscur associé à d'anciens joueurs de Green Bay Packers. Il compte près de 90 millions de vues alors que sa page Facebook officielle ne compte que quelques milliers de followers. Le rapport incluait également des URL de sites de commerce électronique qui semblaient au moins quelque peu spammés, comme des boutiques en ligne de produits CBD et des t-shirts sur le thème de la Bible. Il y avait aussi un GIF de chat basse résolution et plusieurs mèmes fades qui demandaient aux gens de répondre avec des aliments qu'ils aimaient ou n'aimaient pas ou des articles qu'ils avaient récemment achetés.

Les personnalités de droite qui dominent régulièrement le compte Twitter non officiel «Facebook Top 10», qui classent le contenu par engagement, étaient particulièrement absentes du rapport. En fait, il n'y avait pas beaucoup de contenu politique, un point que Facebook a longtemps désireux de prouver. Pour Facebook, sa dernière tentative de « transparence » était la preuve que les flux de la plupart des utilisateurs ne sont pas des marécages polarisants et remplis de désinformation, mais quelque chose de beaucoup plus banal.

Jours plus tard, Le New York Times a signalé que la société avait préparé une version antérieure du rapport, mais a choisi de ne pas la publier. La première URL de cette rapport était une histoire de la Heure du soleil de Chicago qui a suggéré la mort d'un médecin peut avoir été liée au vaccin COVID-19. Bien que l'histoire provienne d'une source d'information crédible, c'est aussi le genre d'histoire qui est souvent utilisée pour alimenter les récits anti-vaccins.

Presque aussitôt que le rapport initial a été publié, les chercheurs ont soulevé d'autres problèmes. Ethan Zuckerman, professeur agrégé de politique publique et de communication à l'Université du Massachusetts à Amherst, l'a appelé « théâtre de la transparence ». C'était, a-t-il dit, "une chance pour FB de dire aux critiques qu'ils vont dans le sens de la transparence sans divulguer aucune des données dont un chercheur aurait besoin pour répondre à une question comme" Le contenu d'extrême droite est-il disproportionnément populaire sur Facebook ? ?'”

La promesse de « transparence »

Pour les chercheurs qui étudient la façon dont les informations circulent sur Facebook, c'est une tactique familière : fournir suffisamment de données pour revendiquer la « transparence », mais pas assez pour être réellement utiles. "Les conclusions du rapport sont discutables", déclare Alice Marwick, chercheuse principale au Center for Information Technology and Public Life de l'Université de Caroline du Nord. « Les résultats n'ont tout simplement pas tenu, ils ne résistent pas à un examen minutieux. Ils ne correspondent à aucune des façons dont les gens partagent réellement des informations. »

Marwick et d'autres chercheurs ont suggéré que cela pourrait être dû au fait que Facebook a choisi de découper ses données d'une manière inhabituelle. Ils ont suggéré que Facebook ne recherchait que les URL qui se trouvaient réellement dans le corps d'un message, plutôt que les aperçus de liens généralement partagés. Ou peut-être que Facebook a juste un très gros problème de spam. Ou peut-être est-ce une combinaison des deux. "Il n'y a aucun moyen pour nous de les vérifier de manière indépendante … car nous n'avons pas accès aux données par rapport à ce que Facebook a", a déclaré Marwick à Engadget.

Ces préoccupations ont été reprises par Laura Edelson, chercheuse à l'Université de New York. "Personne d'autre ne peut reproduire ou vérifier les conclusions de ce rapport", a-t-elle écrit dans un tweeter. "Nous devons juste faire confiance à Facebook." Notamment, Edelson a sa propre expérience dans les limites de la pression de Facebook pour la « transparence ».

La société a récemment fermer son compte Facebook personnel, ainsi que ceux de plusieurs collègues de NYU, en réponse à leurs recherches sur le ciblage des publicités politiques sur la plateforme. Étant donné que Facebook ne rend pas les données de ciblage disponibles dans sa bibliothèque publicitaire, les chercheurs ont recruté des volontaires pour installer une extension de navigateur qui pourrait récupérer des informations publicitaires en fonction de leurs flux.

Facebook l'a qualifié de « grattage non autorisé », affirmant qu'il allait à l'encontre de leurs politiques de confidentialité. Ce faisant, il a cité son obligation envers la FTC, qui, selon l'agence, était « »trompeur. " Des groupes extérieurs avaient examiné le projet et confirmé qu'il ne recueillait que des données sur les annonceurs, et non les données personnelles des utilisateurs. Guy Rosen, vice-président de l'intégrité de l'entreprise, a déclaré plus tard que même si la recherche était «bien intentionnée», elle posait un trop grand risque pour la vie privée. Edelson et d'autres ont déclaré que Facebook essayait de faire taire les recherches qui pourraient faire mal paraître l'entreprise. "Si cet épisode démontre quelque chose, c'est que Facebook ne devrait pas avoir de droit de veto sur qui est autorisé à les étudier", a-t-elle écrit dans un communiqué.

Rosen et d'autres dirigeants de Facebook ont déclaré que Facebook souhaite mettre davantage de données à la disposition des chercheurs, mais qu'ils doivent passer par les canaux officiels de l'entreprise pour s'assurer que les données sont mises à disposition de manière « protégée de la vie privée ». La société dispose d'une plate-forme appelée FORT (Facebook Open Research and Transparency), qui permet aux universitaires de demander l'accès à certains types de données Facebook, notamment annonces électorales à partir de 2020. Plus tôt cette année, la société a annoncé qu'elle étendrait le programme pour mettre plus d'informations à la disposition des chercheurs qui étudient. groupes « marginaux » Sur la plateforme.

Mais alors que Facebook a présenté FORT comme une nouvelle étape dans ses efforts pour assurer la « transparence », ceux qui ont utilisé FORT ont cité des lacunes. Un groupe de chercheurs à Princeton dans l'espoir d'étudier les publicités électorales en fin de compte tiré le projet, citant les conditions restrictives de Facebook. Ils ont déclaré que Facebook avait poussé un accord « strictement non négociable » qui les obligeait à soumettre leurs recherches à Facebook pour examen avant la publication. Des questions encore plus simples sur la façon dont ils étaient autorisés à analyser les données sont restées sans réponse.

"Notre expérience avec Facebook met en évidence leur longue tendance à la mauvaise orientation et au double langage pour éviter un examen minutieux de leurs actions", ont-ils écrit dans un communiqué décrivant leur expérience.

Un porte-parole de Facebook a déclaré que la société ne vérifie que les informations personnellement identifiables et qu'elle n'a jamais rejeté un document de recherche.

"Nous soutenons des centaines de chercheurs universitaires dans plus de 100 institutions par le biais du projet Facebook Open Research and Transparency", a déclaré Chaya Nayak de Facebook, qui dirige FORT chez Facebook, dans un communiqué. « Grâce à cet effort, nous mettons des quantités massives de données protégées à la disposition des universitaires afin qu'ils puissent étudier l'impact de Facebook sur le monde. Nous sollicitons également de manière proactive les commentaires de la communauté des chercheurs sur les étapes qui les aideront à faire avancer la recherche le plus efficacement possible. »

L'accès aux données affecte la capacité des chercheurs à étudier les plus gros problèmes de Facebook. Et la pandémie a encore mis en évidence à quel point ce travail peut être important. La réticence de Facebook à partager plus de données sur désinformation sur les vaccins a été appelé à plusieurs reprises par des chercheurs et des responsables de la santé publique. C'est d'autant plus vexant que Facebook emploie une petite armée de ses propres chercheurs et data scientists. Pourtant, une grande partie de leur travail n'est jamais rendue publique. "Ils ont une équipe de recherche vraiment solide, mais pratiquement tout ce que fait l'équipe de recherche est conservé uniquement sur Facebook, et nous n'en voyons jamais rien", explique Marwick, le professeur de l'UNC.

Mais une grande partie des recherches internes de Facebook pourraient aider ceux en dehors de la plate-forme qui essaient de comprendre les mêmes questions, dit-elle. « Je veux qu'une plus grande partie des analyses et des recherches en cours sur Facebook soient communiquées à la communauté universitaire dans son ensemble, en particulier les choses autour de la polarisation [et] du partage d'informations. J'ai le sentiment assez fort qu'il y a des questions de recherche qui sont activement débattues dans ma communauté de recherche et auxquelles Facebook connaît la réponse, mais ils ne peuvent pas nous la communiquer.

L'essor du "don de données"

Pour pallier ce manque d'accès, les chercheurs se tournent de plus en plus vers des programmes de « don de données ». Comme l'extension de navigateur utilisée par les chercheurs de NYU, ces projets recrutent des volontaires pour « faire don » de certaines de leurs propres données pour la recherche.

NYU Observateur publicitaire, par exemple, a collecté des données sur les publicités sur Facebook et YouTube, dans le but de les aider à comprendre le ciblage publicitaire de la plate-forme à un niveau plus granulaire. De même, Mozilla, le fabricant du navigateur Firefox, a un module complémentaire de navigateur appelé Se rallier qui aide les chercheurs à étudier une gamme de problèmes allant de la désinformation COVID-19 aux nouvelles locales. Le balisage, une organisation de presse à but non lucratif, a également créé Navigateur citoyen, un navigateur personnalisé qui facilite les enquêtes des journalistes sur Facebook et YouTube. (Contrairement aux projets basés sur navigateur de Mozilla et NYU, Le balisage rémunère les utilisateurs qui participent à Citizen Browser.)

« Le plus gros problème de notre communauté de recherche est le manque d'accès aux données privées et exclusives », déclare Marwick. "Les programmes de don de données sont l'une des tactiques que les gens de ma communauté utilisent pour essayer d'accéder aux données, étant donné que nous savons que la plate-forme ne va pas nous les donner."

Surtout, ce sont aussi des données qui sont collectées de manière indépendante, et c'est peut-être le meilleur moyen d'assurer une véritable transparence, explique Rebecca Weiss, qui dirige le projet Rally de Mozilla. "Nous continuons à obtenir ces efforts de transparence de bonne foi de la part de ces sociétés, mais il est clair que la transparence signifie également une certaine forme d'indépendance", a déclaré Weiss à Engadget.

Pour les participants, ces programmes offrent aux utilisateurs de médias sociaux un moyen de s'assurer que certaines de leurs données, qui sont constamment récupérées par des méga-plateformes comme Facebook, peuvent également être utilisées d'une manière qui est sous leur contrôle : aider à la recherche. Weiss dit qu'en fin de compte, ce n'est pas si différent des études de marché ou d'autres projets scientifiques publics. "Cette idée de donner de votre temps à un effort de bonne foi - ce sont des concepts familiers."

Les chercheurs soulignent également qu'il y a des avantages importants à mieux comprendre le fonctionnement des plateformes les plus influentes et les plus puissantes. L'étude des publicités électorales, par exemple, peut exposer les mauvais acteurs qui tentent de manipuler les élections. En savoir plus sur la façon dont la désinformation sur la santé se propage peut aider les responsables de la santé publique à comprendre comment lutter contre l'hésitation à la vaccination. Weiss note que mieux comprendre pourquoi nous voyons les publicités que nous faisons - politiques ou autres - peut grandement contribuer à démystifier le fonctionnement des plateformes de médias sociaux.

"Cela affecte nos vies au quotidien et il n'y a pas beaucoup de façons pour nous, en tant que consommateurs, de nous préparer au monde qui existe avec ces réseaux publicitaires de plus en plus puissants qui n'ont aucune transparence."

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d'affiliation. Si vous achetez quelque chose via l'un de ces liens, nous pouvons gagner une commission d'affiliation.

Par

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *