Buzzfeed publicaba en octubre una investigación propia en la que, según sus datos, las páginas políticas de Facebook "de derechas" compartían información falsa o inexacta el 38% del tiempo. Las páginas "de izquierdas" hacían lo propio un 20%. Muchas veces buscando lo espectacular y el "click" rápido, historias falsas como ésta fueron compartidas por miles de personas y, por tanto, vistas por todavía muchas más. Hasta el Washington Post montó una sección en la que se dedicaban a desmentir fakes.
Pero Internet está lleno de historias falsas (y, si no lo crees, echa un vistazo al Cazadores de Fakes de Genbeta)... ¿qué tienen éstas de distinto? Los medios estadounidenses, durante la cobertura de esta noticia, han repetido una estadística hasta la saciedad: el 44% de los estadounidenses lee noticias en Facebook.
Para Benton, Facebook ha construido una plataforma que favorece la propagación de mentiras y "ha habido mucha gente que ha votado en estas elecciones porque estaban furiosos por cosas inventadas que habían leído online". Zeynep Tufekci, de la Universidad de Carolina del Norte, está estudiando el impacto de la tecnología en la sociedad, y contaba al New York Times el siguiente ejemplo:
Zuckerberg salía entonces a responder a acusaciones como éstas tal cual decía al principio del artículo: explicando que para él "los votantes toman decisiones en base a su experiencia vivida" y que creía que "existe cierta y profunda falta de empatía en afirmar que la única razón por la que algunos han votado de la forma que ha votado es porque vieron algunas noticias falsas".
¿Por qué Zuckerberg insiste tanto?
La polémica no se termina ahí. Quizá porque el tema es "periodístico" o porque algunos siguen buscando posibles explicaciones a la inesperada victoria de Trump, numerosas noticias relacionadas han aparecido en los medios desde entonces. Mark Zuckerberg volvía a pronunciarse, asegurando que el "99% del contenido que la gente ve es real" y que tan sólo una pequeña parte es falso (parte que, además y según él, no está siempre relacionada con la política).
¿Por qué tanta insistencia por parte de Zuckerberg por dejar claro que Facebook, según él, no había influido en las elecciones? Al parecer, y según asegura el New York Times tras hablar con fuentes relacionadas con la compañía, fueron varios los ejecutivos de la red social los que en un primer lugar pusieron en duda el rol de la plataforma y las responsabilidades que ésta debía tomar.
Es más, en Gizmodo aseguraban poco después, tras hablar con empleados (anónimos) de Facebook, que la red social lleva tiempo debatiendo este asunto y que incluso llegaron a plantearse una actualización del algoritmo para detectar y restar visibilidad a las noticias falsas. Esta actualización, según esas mismas fuentes, fue descartada después de que impactara sobre todo a la visibilidad de los contenidos de sitios "de derechas" y por miedo a la reacción de los conservadores. Facebook lo negó.
De hecho, y según Buzzfeed, hay un grupo de empleados "renegados" de Facebook que han formado un "comando especial", sin autorización del jefe, para luchar contra las noticias falsas después de que éste negara la influencia de las mismas. "De momento se reúnen en secreto para que sus miembros puedan hablar libremente" con la idea de "hacer una lista de recomendaciones para los gestores seniors de Facebook", dice Buzzfeed, que además afirma que hay cierto descontento entre "cientos" de empleados respecto al trato que la red social ha dado a las noticias falsas y la posterior explicación de Zuckerberg.
No es la primera vez que la red social protagoniza alguna polémica relacionada con la política. En mayo de este año se publicaba un artículo sobre cómo los empleados encargados de elegir los "Temas del momento" eran parciales y dependían de la visión del empleado que los elegía, teniendo supuestamente los temas "conservadores" menos posibilidades de salir en ese apartado. El asunto llegó hasta el Partido Republicano, que lanzó un escrito muy crítico al respecto, y hasta el propio Senado, que pidió una investigación. Facebook siempre lo negó, pero poco después despidió al equipo y lo sustituyó por un algoritmo.
Más críticas
Otra crítica que recibe frecuentemente es la relativa a la "burbuja de los filtros": Facebook está diseñada para mostrarte lo que su algoritmo cree relevante para ti. Por eso, si eres conservador, lo más probable es que veas en tu línea temporal noticias conservadoras. ¿Qué tiene que ver esto con las noticias falsas? No sólo es que no te ofrezcan la otra "visión", es que, si alguien publica una noticia falsa en un medio de determinadas preferencias políticas, es poco probable que en tu feed de Facebook veas cómo otro medio de otra orientación la desmiente. Y viceversa.
Facebook pasa a la acción
La lucha de Facebook contra las noticias falsas no es nueva. En enero de 2015, la red social anunciaba un nuevo sistema en el que los usuarios eran los encargados de marcar una publicación como fake. "No podemos leer y comprobar todo, así que lo que hemos hecho es permitir a la gente que marque cosas como falsas", explicaba el responsable del news feed de Facebook a TechCrunch el mes pasado antes de toda la polémica.
Sin embargo, y tras todo lo que se ha escrito sobre este tema, Facebook seguía el camino de Google (hablaré sobre esto a continuación) y anunciaba hace unas horas que habían actualizado los términos de uso de su plataforma para aclarar que su sistema de anuncios no mostrará publicidad (y, por tanto, no dará ingresos) en sitios que se dedican a difundir noticias fake. Por ahora, eso sí, no parece que vayan a retirar dichas publicaciones, sino dejarlas sin su fuente de ingresos.
Google se suma
Facebook no ha sido la única plataforma online a la que los dedos acusadores han apuntado en lo que se refiere a la difusión de noticias falsas. Este fin de semana, una noticia falsa sobre el número de votos que había obtenido cada candidato se colaba como primera historia en los resultados al buscar por "final vote count 2016", "final election numbers" o similar. Esto no es cierto. Sin embargo, y de alguna forma, una página web desconocida (70News) consiguió poner su noticia como primer resultado para unas búsquedas tan comunes como éstas. De hecho, haz la prueba: todavía sigue saliendo arriba del todo.
Tras la repercusión mediática del caso, el buscador anunciaba ayer que iban a tomar medidas contra los sitios que difunden "noticias falsas". En concreto, van a dejar de servir anuncios (y, como también decía antes en el caso de Facebook, cortar los ingresos a través de esa vía) a las páginas que "malinterpretan, declaran erróneamente u ocultan información sobre la publicación, el contenido de la publicación o el propósito principal de la propiedad web".
Facebook y Google, ¿controladores de lo que es verdad y lo que no?
Si las noticias falsas de Facebook fue algo que influenció a los votantes o no es algo que posiblemente no sabremos nunca (aunque estoy segura de que habrá estudios y publicaciones académicas al respecto). Ahora bien, ¿debe recaer sobre Facebook, Google y otras plataformas online la responsabilidad de "filtrar" lo que es falso y lo que no? Al final todo se reduce a un debate del que ya hemos escuchado hablar en varias ocasiones: ¿es Facebook un medio y, como consecuencia, tiene responsabilidades?
El discurso de Facebook siempre ha sido claro al respecto: "Somos una compañía tecnológica, no una compañía de medios", decía Zuckerberg este verano. Eso es así porque, según él, "nosotros construimos las herramientas, no producimos ningún contenido". Aun así, en el pasado sí han tomado decisiones "editoriales". Por ejemplo, llegaron a borrar de sus posts la famoso foto de Vietnam que protagoniza una niña desnuda porque no cumplía su política, pero luego la volvieron a permitir al considerar que era "de interés". Reconocían entonces hacer "excepciones" en sus normas de lo que se puede publicar y no.
La noticia El ministerio de la verdad: la guerra de Facebook y Google contra las noticias falsas fue publicada originalmente en Xataka