Sorpresa: Facebook dice que Facebook está bien para las noticias.

Un estudio fue publicado la semana pasada en la revista. Ciencias eso muestra que el algoritmo de Facebook no es la causa de una hipotética "burbuja de filtro", donde las personas solo ven noticias que se alinean con sus inclinaciones políticas en una red social.

¿El único problema? Es un estudio de Facebook realizado por personas empleadas por Facebook.

¿Deberíamos realmente sorprendernos de que los propios investigadores de Facebook minimicen el impacto de las manipulaciones de sus empresas de los canales de noticias de las personas?

El estudio, Exposición a noticias y opiniones ideológicamente diversas en Facebook, por Eytan Bakshy y sus colegas en Facebook fue publicado la semana pasada en Ciencias. ¿Cómo podría publicarse este estudio en la prestigiosa revista Ciencias? 1 ¿No se supone que la revisión por pares capta los estudios de interés personal publicados por empresas que solo demuestran lo que la empresa quiere que muestren los datos?

Uno tiene que preguntarse cómo aprobaron los revisores este estudio tal como se publicó. Ya se han publicado muchas críticas al estudio, por lo que solo haré un resumen rápido de los problemas citados por otros. Esta crítica de Christian Sandvig resume bastante bien el problema de cómo los investigadores de Facebook hicieron girar sus propios hallazgos en el estudio publicado:

Sobre el tema de las comparaciones, el estudio continúa diciendo que:

"Establecemos de manera concluyente que ... las elecciones individuales más que los algoritmos limitan la exposición a contenido que desafía la actitud".

"En comparación con la clasificación algorítmica, las elecciones de los individuos sobre qué consumir tuvieron un efecto más fuerte"

Las campanas de alarma me suenan. La industria del tabaco podría haber financiado alguna vez un estudio que dice que fumar es menos peligroso que la minería del carbón, pero aquí tenemos un estudio sobre el tabaquismo de los mineros del carbón. Probablemente mientras estén en la mina de carbón.

Lo que quiero decir es que no existe un escenario en el que las “elecciones del usuario” frente al “algoritmo” puedan intercambiarse, porque suceden juntas […]. Los usuarios seleccionan de lo que el algoritmo ya les filtró. Es una secuencia.

Creo que la afirmación correcta sobre estas dos cosas es que ambas son malas: ambas aumentan la polarización y la selectividad. Como dije anteriormente, el algoritmo parece aumentar modestamente la selectividad de los usuarios.

De hecho, uno pensaría que los investigadores de Facebook que, ya sabe, trabajan en Facebook, entenderían que no se puede descifrar y separar el algoritmo del comportamiento del usuario, ya que uno depende del otro. Sin manipular el algoritmo (que la investigación de Facebook que Adam Kramer descubrió que no es algo bueno sin primero obtener el consentimiento informado del usuario), realmente no se puede decir por qué los usuarios hacen clic en una cosa más que en otra.

Pero esta revisión del estudio de Facebook de Zeynep Tufekci, profesor de la Universidad de Carolina del Norte, Chapel Hill, escribió que lo que realmente encontraron los datos del estudio estaba enterrado en el apéndice del estudio:

Cuanto más alto sea el enlace, más (muchas más) probabilidades de que se haga clic en él. Vives y mueres por ubicación, determinada por el algoritmo de suministro de noticias. (El efecto, como señala correctamente Sean J. Taylor, es una combinación de ubicación y el hecho de que el algoritmo adivina lo que le gustaría).

Esto ya se sabía, en su mayoría, pero es genial que los investigadores de Facebook lo confirmen (el estudio fue escrito únicamente por empleados de Facebook). […]

Un hallazgo novedoso es que el algoritmo de suministro de noticias (modestamente) suprime contenido diverso, y otro hallazgo crucial y también novedoso es que la ubicación en el feed influye (fuertemente) en las tasas de clics.

Facebook te muestra noticias que es más probable que leas (porque está de acuerdo con tu punto de vista político) y que cuanto más alto aparece en tu suministro de noticias, es más probable que hagas clic en él.

En otras palabras, la manipulación de Facebook de su suministro de noticias sigue siendo un factor importante que contribuye a determinar en qué es probable que haga clic. Y continúan manipulando esa información para mostrarte noticias políticamente alineadas más que si no hubiera ningún sesgo en su algoritmo.

Y, como señala Tufekci de manera importante, este fue un grupo pequeño y selecto de usuarios de Facebook estudiados, solo porque era más conveniente (y más barato) para los investigadores de Facebook estudiarlos. Solo observaron a los usuarios que identificaron su afiliación política en Facebook e iniciaron sesión regularmente en el servicio (alrededor del 4 por ciento del total de usuarios de Facebook [solo el 9 por ciento de los usuarios declaran su afiliación política en Facebook, lo que significa que esta no es una muestra que pueda generalizar cualquier cosa de]). No dice nada sobre los usuarios de Facebook que no declaran su afiliación política en Facebook, que somos la mayoría de nosotros.

¿Podría Facebook haber realizado un estudio más sólido? Claro, pero habría requerido técnicas de investigación más tradicionales, como el reclutamiento de encuestas en el sitio combinado con el reclutamiento de correo electrónico aleatorio fuera del sitio.

Entonces, aquí está el hallazgo imparcial y sin filtrar de los datos (cortesía de Tufekci) que los investigadores de Facebook aparentemente hicieron girar para decir que lo que ves en su suministro de noticias no es su culpa:

Los investigadores de Facebook muestran de manera concluyente que el algoritmo de suministro de noticias de Facebook disminuye el contenido transversal e ideológicamente diverso que las personas ven en sus redes sociales en Facebook en una cantidad mensurable. Los investigadores informan que la exposición a contenido diverso es suprimida por el algoritmo de Facebook en un 8% para los liberales autoidentificados y en un 5% para los conservadores autoidentificados.

O, como dice Christian Sandvig, “el algoritmo filtra 1 de cada 20 noticias duras transversales que un conservador autoidentificado ve (o el 5%) y 1 de cada 13 noticias duras transversales que un liberal autoidentificado ve (8%) ". Estás viendo menos noticias con las que no estarías de acuerdo y que son compartidas por tus amigos porque el algoritmo no te las muestra.

Desafortunadamente, fuera del New York Times y algunos otros medios selectos, la mayoría de los principales sitios de medios de comunicación solo informaron lo que los investigadores de Facebook afirmaron en su estudio, sin escepticismo.

Pero ahora sabes la verdad: Facebook estudió una muestra pequeña y no representativa, luego restó importancia a lo que realmente mostraban sus datos para enfatizar un resultado que era más positivo para la empresa. Para mí, este es otro ejemplo de cómo los investigadores de Facebook no comprenden realmente el objetivo de la investigación científica: compartir conocimientos con el mundo que no estén sesgados ni manipulados.

Para leer más ...

Zeynep Tufekci: cómo el algoritmo de Facebook suprime la diversidad de contenido (modestamente) y cómo el suministro de noticias controla sus clics

Christian Sandvig: El estudio de Facebook "No es nuestra culpa"

NY Times: ¿Facebook usa polarización? El sitio pide diferir

Notas al pie:

  1. Lamentablemente, ahora tengo que agregar otra revista a mi lista de publicaciones científicas respetadas que necesitan un mayor escrutinio. Como saben los lectores de World of Psychology desde hace mucho tiempo, esa lista se hace más larga cada año: Pediatría (Pediatrics publica estudios sobre tecnología que aparentemente no son revisados ​​por nadie familiarizado con las relaciones causales de la investigación básica). Ciberpsicología, comportamiento y redes sociales (La ciberpsicología aparentemente publica cualquier estudio sobre la adicción a Internet o las redes sociales, independientemente de su calidad) y ahora, Ciencias. [↩]

!-- GDPR -->