Cómo la ética blanda de Facebook los metió en problemas

Ah, lo rápido que la gente da marcha atrás cuando se les sorprende haciendo algo un poco menos transparente. Y quizás algo un poco ... blando, ético.

Eso es lo que el "científico de datos" de Facebook Adam D.I. Kramer estaba haciendo el domingo, cuando publicó una actualización de estado en su propia página de Facebook tratando de explicar por qué Facebook realizó un mal experimento y manipuló, más de lo habitual, lo que la gente veía en sus noticias.

Para algo de humor el martes por la mañana, echemos un vistazo a lo que dijo Kramer el domingo, en comparación con lo que escribió en el estudio.

Comencemos examinando la motivación proclamada para el estudio, ahora revelada por Kramer:

Sentimos que era importante investigar la preocupación común de que ver a amigos publicar contenido positivo hace que las personas se sientan negativas o excluidas. Al mismo tiempo, nos preocupaba que la exposición a la negatividad de los amigos pudiera llevar a las personas a evitar visitar Facebook.1

¿A que final? ¿Manipularía aún más la transmisión de noticias, haciendo que pareciera que la vida de todos era una cereza encima de un helado, y reduciría el contenido negativo?

Tiene poco sentido que una empresa con fines de lucro se preocupe por esto, a menos que pueda tener algún resultado procesable. Y cualquier resultado procesable de este estudio haría que Facebook pareciera incluso menos conectado con el mundo real de lo que está hoy.2

En el estudio (Kramer et al., 2014), los investigadores afirmaron que su experimento era amplio y manipulador:

Mostramos, a través de un experimento masivo (N = 689,003) en Facebook…

El experimento manipuló la medida en que las personas (N = 689,003) estaban expuestas a expresiones emocionales en su News Feed. […] Se realizaron dos experimentos paralelos para las emociones positivas y negativas: uno en el que se redujo la exposición al contenido emocional positivo de los amigos en su News Feed y otro en el que se redujo la exposición al contenido emocional negativo en su News Feed
reducido.

En estas condiciones, cuando una persona cargó su News Feed, publicaciones que contenían contenido emocional de la valencia emocional relevante, cada publicación emocional tenía entre un 10% y
90% de probabilidad (según su ID de usuario) de ser omitido de su News Feed para esa visualización específica.

Si fue parte del experimento, las publicaciones con una palabra de contenido emocional en ellas tenían hasta un 90 por ciento de posibilidades de ser omitidas de sus noticias. En el mío, y en los libros de la mayoría de la gente, eso es bastante manipulador.

Ahora mire cómo Kramer (también conocido como Danger Muffin) minimiza el impacto del experimento en su explicación publicada en Facebook:

Con respecto a la metodología, nuestra investigación buscó investigar la afirmación anterior al despriorizar mínimamente un pequeño porcentaje de contenido en News Feed (en función de si había una palabra emocional en la publicación) para un grupo de personas (alrededor del 0.04% de los usuarios, o 1 en 2500) ...

Ah, pasamos de "hasta un 90 por ciento de posibilidades" a "despriorizar mínimamente un pequeño porcentaje de contenido". ¿No es sorprendente cuán creativamente se puede caracterizar exactamente el mismo estudio de dos formas virtualmente contradictorias?

¿Fue significativo o no?

El estudio en sí hace múltiples afirmaciones y conclusiones sobre la importancia y el impacto de sus hallazgos (a pesar de sus tamaños de efecto ridículamente pequeños). De alguna manera, todas estas afirmaciones desagradables y de gran alcance pasaron por alto a los revisores de la revista PNAS (que deben haber estado durmiendo cuando sellaron este documento) y se les permitió permanecer de pie sin calificación.

En la explicación de Kramer publicada el domingo, sugiere que sus datos realmente no encontraron nada de todos modos por lo que la gente debería preocuparse:

Y al final del día, el impacto real en las personas en el experimento fue la cantidad mínima para detectarlo estadísticamente… 3

Lo que contradice directamente las afirmaciones realizadas en el propio estudio:

Estos resultados sugieren que las emociones expresadas por los amigos, a través de las redes sociales online, influyen en nuestro propio estado de ánimo, constituyendo, hasta donde sabemos, la primera evidencia experimental de contagio emocional masivo a través de las redes sociales […]

Los mensajes en línea influyen en nuestra experiencia de las emociones, que pueden afectar una variedad de comportamientos fuera de línea.

Mire, no hay calificativos en esas declaraciones. Sin decir, "Oh, pero esto realmente no afectaría las emociones de una persona". No, en mi opinión, una completa contradicción con lo que ahora afirma uno de los investigadores.

Pero, ¿fue ético?

Mucha controversia ha rodeado si este tipo de adicional La manipulación de su feed de noticias en Facebook es ética, y si está bien incorporar un formulario de consentimiento de investigación global en el acuerdo de términos de servicio de un sitio web. (Facebook ya manipula lo que ves en tus noticias a través de su algoritmo).

Primero, eliminemos el argumento de la pista falsa de que esta investigación no es lo mismo que lo hacen las empresas de investigación interna para la usabilidad o las pruebas de diseño. Ese tipo de investigación nunca se publica y nunca se realiza para examinar hipótesis científicas sobre el comportamiento humano emocional. Es como comparar manzanas con naranjas para sugerir que son lo mismo.

La investigación en seres humanos generalmente debe ser firmada por un tercero independiente llamado junta de revisión institucional (IRB). Por lo general, se encuentran en universidades y revisan todas las investigaciones que realizan los propios investigadores de la universidad para asegurarse de que no violen cosas como la ley, los derechos humanos o la dignidad humana. Las empresas con fines de lucro como Facebook generalmente no tienen un equivalente exacto de IRB. Si un estudio en sujetos humanos no fue revisado por un IRB, si fue ético o moral sigue siendo una pregunta abierta.

Aquí está la defensa del "científico de datos" 4 Kramer del diseño de la investigación, como se señaló en el estudio:

[Los datos se procesaron de tal manera] que los investigadores no vieron ningún texto. Como tal, era coherente con la Política de uso de datos de Facebook, que todos los usuarios aceptan antes de crear una cuenta en Facebook, lo que constituye un consentimiento informado para esta investigación.

Sin embargo, Kashmir Hill sugiere que la Política de uso de datos de Facebook se modificó 4 meses después de que se realizó el estudio para permitir explícitamente el uso de "investigación" de los datos de Facebook.

También parecían haber fracasado al obtener la aprobación del IRB de una universidad para el estudio. Hill informó anteriormente que el IRB de Cornell no revisó el estudio.5 Ninguno de los investigadores ha dado un paso adelante para explicar por qué aparentemente le dijeron al editor de PNAS que lo habían dirigido por un IRB de una universidad.

Chris Chambers, del Guadian del Reino Unido, ofrece este resumen de la triste situación:

Esta situación es, francamente, ridícula. ¿En qué versión de 2014 es aceptable que las revistas, las universidades y los científicos ofrezcan palabras comadrejas y ofuscación en respuesta a preguntas sencillas sobre la ética de la investigación? ¿Cómo es aceptable que un comité de ética decida que los mismos autores que ayudaron a Facebook a diseñar un estudio intervencionista para cambiar el estado emocional de más de 600.000 personas, de alguna manera, "no participaron directamente en la investigación humana"?

Glaseado en el pastel: la no disculpa

Kramer no se disculpó por realizar la investigación sin el consentimiento informado del usuario. En cambio, se disculp por la forma en que escribió la investigación:

Puedo entender por qué algunas personas tienen preocupaciones al respecto, y mis coautores y yo lamentamos mucho la forma en que el artículo describió la investigación y la ansiedad que causó.

A las personas no les molesta que hayas realizado la investigación, sino que les molesta que las hayas investigado sin su conocimiento o consentimiento. Y lo siento Facebook, pero enterrar el "consentimiento" en miles de palabras de palabrería legal puede protegerlo legalmente, pero no lo protege del sentido común. O las reacciones de la gente cuando descubren que los ha estado usando como conejillos de indias.

Las personas simplemente quieren una forma significativa de optar por no participar en sus experimentos con ellos y sus noticias sin su conocimiento o consentimiento.

Facebook no ofrece esto hoy. Pero sospecho que si Facebook quiere seguir haciendo investigaciones de esta naturaleza, pronto ofrecerá esta opción a sus usuarios.

Un estudio de caso de ética para todos los tiempos

Esta situación es un ejemplo perfecto de cómo no realizar una investigación sobre los datos de sus usuarios sin su consentimiento explícito. Se enseñará en las clases de ética durante años, y quizás décadas, en los próximos años.

También actuará como un caso de estudio de lo que no se debe hacer como red social si desea seguir siendo la confianza de sus usuarios.

Facebook debería ofrecer a todos los usuarios una disculpa genuina por realizar este tipo de investigación sobre ellos sin su conocimiento y permiso explícitos. También deben cambiar sus requisitos de investigación interna para que todos los estudios realizados sobre sus usuarios pasen por un IRB externo de una universidad.

Otras lecturas

Fiasco de Facebook: ¿fue el estudio de Cornell sobre el "contagio emocional" una violación de la ética?

Facebook agregó una "investigación" al acuerdo de usuario 4 meses después del estudio de manipulación de emociones

Referencia

Kramer, ADI, Guillory, JE, Hancock, JT. (2014). Evidencia experimental de contagio emocional masivo a través de las redes sociales. PNAS. www.pnas.org/cgi/doi/10.1073/pnas.1320040111

Notas al pie:

  1. Lo que ya nos dijeron en el estudio: "Una prueba de si las publicaciones con contenido emocional son más atractivas". [↩]
  2. Facebook parece menos conectado con mi vida real, ya que mi propio servicio de noticias parece haber pasado en gran medida de publicaciones sobre la vida de las personas a "enlaces que encuentro interesantes", ¡aunque nunca hago clic en esos enlaces! [↩]
  3. Lo cual es una forma curiosa de los investigadores de decir: "Nuestro experimento realmente no encontró ningún tamaño de efecto notable. Pero vamos a pregonar los resultados como si lo hiciéramos (ya que en realidad encontramos una revista, PNAS, ¡lo suficiente como para publicarla!) ". [↩]
  4. Utilizo citas alrededor de este título, porque todos los investigadores y científicos son científicos de datos; eso es lo que diferencia a un investigador de un narrador. [↩]
  5. De hecho, señalan que Hancock, un autor nombrado en el artículo, solo tuvo acceso a los resultados, ¡ni siquiera a los datos reales! [↩]

!-- GDPR -->