Facebook es una de las principales plataformas de distribución de noticias. Su influencia en eventos como las elecciones presidenciales de Estados Unidos es inevitable. BuzzFeed News ha realizado un análisis con el que monitorizó las publicaciones compartidas por varias páginas de Facebook sobre política.

La victoria de Donald Trump en las elecciones presidenciales no dejó indiferente a nadie. Todos los sondeos previos coincidían: Hillary Clinton es la favorita —por un margen reducido, eso sí—. Horas más tarde, el candidato republicano se alzaba con la victoria en las elecciones presidenciales.

Ante este giro de los acontecimientos, politólogos, periodistas y ciudadanos estadounidenses repetían reiteradamente la misma pregunta: "¿cómo ha podido ocurrir esto?".

Con el paso de las horas, varios colectivos atacaron directamente a la red social Facebook, quien habría permitido de forma reiterada la expansión de noticias falsas sobre ambos candidatos. Mark Zuckerberg, CEO de Facebook, respondió a las críticas con contundencia durante la conferencia Technonomy:

La idea de que las noticias falsas publicadas en Facebook influyeron en los resultados de las elecciones es muy loca. Los votantes tomaron decisiones basadas en sus experiencias personales.

La respuesta del fundador de Facebook no se sostiene analizando el estudio realizado por BuzzFeed News, quien monitorizó las publicaciones compartidas por varias páginas de Facebook sobre política. El contenido publicado por las páginas "pro-republicanas" era, en un 38%, falso o incorrecto. El contenido publicado por las páginas "pro-democratas", en cambio, era falso en un 20%.

De la misma forma, BuzzFeed News desmontó una red de sitios webs procedentes de Macedonia que ofrecían contenidos afines a los seguidores de Trump en Facebook. El objetivo, evidentemente, era lucrarse económicamente con esos contenidos falsos. A cambio, miles de personas se nutrían de informaciones falsas y juzgaban el futuro de su país en base a ello.

Escuchamos y compartimos solo lo que queremos oír. Sacar la autocrítica no es una práctica común.

Estas páginas de Facebook, como ha quedado demostrado, carecen de procesos de verificación o de un rigor editorial. Son páginas editadas por personas con una fuerte ideología que aprovechan la controversia, el clickbait y la falsedad para promover sus ideales políticos y obtener beneficios económicos a cambio (mediante la publicidad, los clics o campañas paralelas).

No obstante, el éxito de esas páginas no sería posible sin la imperiosa necesidad del ser humano de escuchar solo lo que quiere oír. Sacar hacia fuera la autocrítica no es una práctica común. Explorar otros puntos de vista para enriquecerse y nutrirse, menos aun.

CNN De esta forma, si un usuario venera a Donald Trump y odia a Hillary Clinton, es muy sencillo que comparta y crea una noticia falsa sobre algo que Clinton hizo mal en el pasado. O viceversa. El resultado, por lo tanto, es una desinformación absoluta y unos ideales políticos basados en mentiras.

Comprobar la veracidad de todo lo que se publica es una tarea muy compleja. Los fact-checkers profesionales encuentran dificultades para procesar y verificar las ingentes cantidades de información que se generan en el siglo XXI. Un lector tradicional, con un tiempo y capacidad limitados, encuentra aún más dificultades para comprobar que la información a la que accede es verídica.

Culpar a una plataforma del uso irresponsable que hacen de ella sus usuarios es absurdo No obstante, culpar a Facebook, la empresa, es absurdo. El problema no nace en Facebook, nace en sus usuarios. Son ellos los responsables de generar y expandir noticias falsas sin contrastarlas previamente. Facebook es un mero observador, una autopista sobre la que todo circula.

En cambio, sí es sensato y legítimo demandar a Facebook nuevas medidas y herramientas que contengan este huracán basado en el clickbait y la mentira. Al fin y al cabo, Facebook es la autopista sobre la que todo circula, una posición privilegiada desde la que filtrar el contenido.

Una de las páginas desmontadas por BuzzFeed News Entre las soluciones que emergen se encuentra la implantación de un PageRank similar al de Google, tal y como Álex Barredo comentaba en Mixx.io. Este sistema da más visibilidad a los dominios más fuertes mediante un sistema independiente. De esta forma, medios como The New York Times obtendrían una mayor visibilidad en el NewsFeed que algunas de las páginas desmontadas por BuzzFeed News.

Una alternativa a este método es la integración de un equipo de editores que gestionen y valoren los contenidos compartidos a través de Facebook, dando mayor visibilidad a aquellos que consideren relevantes, elaborados y verídicos. No obstante, la compañía ya implementó un sistema similar, pero las críticas por la supuesta censura y la ineficacia del mismo acabaron reemplazando dicho sistema por algoritmos.

Según Pew Research, el 38% de los estadounidenses consumen noticias a través de Facebook, una cifra que se equipara a la de otros países desarrollados. La influencia de Facebook en la prensa y la comunicación es indudable. Y eso conlleva una responsabilidad.

La distribución de contenidos falsos no solo ha afectado a las elecciones presidenciales en Estados Unidos. Día a día se comparten y distribuyen noticias falsas relacionadas con temáticas muy diversas. Uno de los ejemplos más recientes es la fotografía de Donald Trump en los Simpsons, supuestamente prediciendo el futuro con quince años de antelación. Lo mismo ha sucedido durante años con otros "bulos" como la rata en KFC.

La solución al problema de los contenidos falsos en Facebook es compleja. Regular el contenido puede ser interpretado como censura; no hacerlo, en cambio, perjudica a medios y a la sociedad en general. Lo único evidente es la necesidad de actuar; y Facebook, como una de las plataformas de distribución de contenidos más influyentes, tiene una responsabilidad a la que hacer frente.

Por suerte, Facebook ha reconocido abiertamente el problema en declaraciones a TechCrunch. El vicepresidente de producto reconoció la necesidad de integrar nuevas herramientas y algoritmos que permitan filtrar el contenido basura de una forma más efectiva, acabando así con la desinformación causada por las publicaciones realizadas en su red social.

 

La noticia "Zuckerberg no tiene razón" fue publicada originalmente en Hipertextual.