La endeble negación de Facebook de noticias falsas y su impacto

Facebook pinta una imagen muy dicotómica y contradictoria de sí mismo. Por un lado, afirman ser la red social más grande del mundo, impactando las vidas de más de mil millones de personas cada mes. Por otro lado, el CEO Mark Zuckerberg, ¿aparentemente no está usando su propia red social o quizás viviendo bajo una roca el año pasado? - afirma que Facebook prácticamente no tiene influencia en las elecciones nacionales.

La desconexión es importante, porque muestra que Facebook no parece asumir una posición de liderazgo con responsabilidad para desatar y reforzar la tecnología que se ha convertido en parte de la vida diaria de miles de millones de personas. ¿Las noticias falsas son un problema real en Facebook y, de ser así, qué se puede hacer al respecto?

El martes, después de que Google dijera que ya no aceptaría a editores en su red publicitaria que publiquen noticias falsas, noticias ficticias diseñadas para que otros las compartan y hagan clic en ellas, Facebook hizo lo mismo. Es revelador que Facebook siguió el ejemplo de Google teniendo en cuenta los comentarios del director ejecutivo de Facebook, Mark Zuckerberg, durante el fin de semana, en el que calificó de "una locura" que Facebook hubiera tenido alguna influencia en las elecciones generales presidenciales recientes más polémicas.

Sin embargo, prohibir que los sitios de noticias falsas usen su red publicitaria está muy lejos de trabajar realmente en el problema real: las personas comparten y les gustan las noticias falsas con la misma facilidad que las noticias reales y legítimas.

Will Oremus, escribiendo en Slate, expone el problema:

El problema es la negativa de Facebook a reconocer su papel cada vez más dominante en los medios de comunicación. Es poco probable que desaparezca, incluso si las noticias falsas lo hacen. En una entrevista pública el jueves pasado, Zuckerberg afirmó que las noticias falsas en Facebook "seguramente no tuvieron ningún impacto" en las elecciones y que sugerir lo contrario era "una idea bastante loca". […]

Al mismo tiempo, advirtió que Facebook tenía que "proceder con mucho cuidado", porque "identificar la 'verdad' es complicado". […]

Pero existe una sensación creciente, tanto dentro como fuera de la empresa, de que puede estar actuando con demasiado cuidado, dado su papel cada vez más dominante en la distribución de noticias en línea. Y las negaciones de Zuckerberg parecen avivar las llamas.

En efecto. Cuando su propio director ejecutivo parece tan desconectado de la realidad sobre el terreno, le hace preguntarse a qué dedica su tiempo durante todo el día. Las noticias falsas se difunden en Facebook con la misma facilidad que las noticias legítimas (y las fotos de gatitos), se comparten y me gustan millones de veces durante las últimas elecciones. Si bien Facebook tiene algunas herramientas de informes rudimentarias, proporcionan retroalimentación cero al usuario sugiriendo que se ha hecho algo. Sin comentarios, los usuarios tienen pocos incentivos para usar estas herramientas, por lo que la mayoría de las personas simplemente no se molestan en utilizarlas.

Pero identificar noticias falsas no se trata realmente de identificar "la verdad", sino de identificar hechos fácilmente verificables que son falsos (lo que la mayoría de nosotros llama "mentiras" o "ficción"). Especialmente cuando se trata de cosas fácilmente verificables en las que Facebook cayó por completo durante las últimas elecciones, como la mentira de que el Papa respaldó a Trump.

Sin embargo, a medida que Facebook ha crecido, parece que se ha vuelto más complaciente y perezoso con respecto a sus responsabilidades para con sus usuarios:

[Edward] Snowden advirtió que las redes sociales tienen cuidado de respetar a los usuarios a medida que crecen, pero se vuelven más imprudentes a medida que establecen su dominio. “Tener una empresa que tenga suficiente poder para remodelar nuestra forma de pensar, no creo que sea necesario describir lo peligroso que es”, concluyó. […] “Cuando instalas Google, Facebook, Twitter, parece que nunca se van”, dijo. "Cuando un proveedor de servicios toma una mala decisión, todos sufrimos por ello".

Facebook dice: "Oye, ante todo, somos una empresa de tecnología. No queremos meternos en este complicado asunto de tener que involucrar a los humanos en nuestros procesos ". Sin embargo, como están descubriendo, cuando maneja un negocio de tecnología cuyo único propósito es conectar a los seres humanos entre sí de alguna manera significativa, es posible que realmente necesite que los humanos participen en el proceso (además de codificar los obviamente defectuosos algoritmos). Negar que es necesario hacer más es enterrar la cabeza en la arena y esperar que el problema simplemente desaparezca.

Problema resuelto fácilmente por cuatro estudiantes universitarios

Ahora, todo esto sería un punto discutible si el problema fuera insuperable, irresoluble.

Pero se resuelve fácilmente, como acaban de demostrar cuatro estudiantes universitarios de la Universidad de Princeton. Su solución es una extensión de navegador solo para Chrome (si fueran ingenieros de Facebook, podrían fácilmente integrar esto directamente en la red social):

"Para los enlaces, tomamos en cuenta la reputación del sitio web, también lo consultamos contra la base de datos de sitios web de malware y phishing y también tomamos el contenido, lo buscamos en Google / Bing, recuperamos búsquedas con alta confianza y resumimos ese enlace y se lo mostramos al usuario. Para imágenes como instantáneas de Twitter, convertimos la imagen en texto, usamos los nombres de usuario mencionados en el tweet, para obtener todos los tweets del usuario y verificar si el tweet actual fue publicado alguna vez por el usuario ".

El complemento del navegador luego agrega una pequeña etiqueta en la esquina que dice si la historia está verificada. […]

Pero los estudiantes muestran que se pueden construir algoritmos para determinar con certeza razonable qué noticias son verdaderas y cuáles no, y que se puede hacer algo para mostrar esa información a los lectores cuando consideren hacer clic.

En efecto. Uno pensaría que una empresa que vale miles de millones de dólares podría haber descubierto esto por sí misma antes de que se convirtiera en el problema que tuvo en las elecciones de 2016. De hecho, un pequeño grupo de trabajo de ingenieros de Facebook ahora está tomando el asunto en sus propias manos para tratar de convencer a su CEO de que este es un problema real, pero que pueden resolver.

Las noticias falsas son un problema que puede resolverse. Pero primero, los responsables (como Zuckerberg) tienen que reconocer que es un problema real: que las redes sociales como Facebook juegan un papel social importante en la política de muchos países.

!-- GDPR -->