La agencia Reuters publicó el pasado mes de junio un estudio, elaborado por Rasmus Nielsen Kleis, en el que se analizaba el consumo de noticias por parte de los usuarios y que arrojaba la conclusión de que algo más de la mitad de los mismos (un 52%) recurrían a las redes sociales como fuente de contenidos informativos sobre la actualidad.
Entre esas redes, Facebook se alzaba como la más popular. Pero en los meses que han transcurrido desde entonces (y en parte gracias a la agria campaña presidencial en Estados Unidos), la red social fundada por Mark Zuckerberg se ha visto sometida a un creciente debate sobre la fiabilidad de sus criterios para visibilizar unas u otras noticias, que la llevaron a proporcionar una desmesurada difusión a sitios plagados de bulos (por motivación política o humorística).
Estudios de 2014 sobre Twitter no encontraron ninguna correlación entre el número de veces que se comparte un artículo y la cantidad de veces que efectivamente se lee.
Así, noticias con titulares como “El papa Francisco sorprende al mundo respaldando a Donald Trump” o «El agente del FBI responsable de la filtración de los mails de Hillary es hallado muerto en su casa por aparente suicidio” han llegado a cosechar hasta 960 mil interacciones. Tras finalizar la campaña, Zuckerberg sostuvo primero que casos como estos carecían de importancia y, ante las numerosas críticas, dos días después pasó a anunciar que se tomarán medidas para atajar la difusión de esta clase de contenidos.
Pero aquellos que no quieran esperar a que dichas medidas se implementen, o que no confíen en la voluntad o pericia técnica de los responsables de Facebook para lograrlo (los expertos se han mostrado escépticos sobre el alcance a corto plazo del anuncio de Zuckerberg), cuentan ya con herramientas independientes que les permitirán mantener localizados los potenciales bulos que puedan recalar en sus cuentas de Facebook.
‘B. S. Detector, un avance (imperfecto) para atajar los bulos
Para ello, el programador Daniel Sieradski se ha puesto manos a la obra para desarrollar él mismo una extensión para el navegador Google Chrome bautizada como ‘B. S. Detector’ (donde ‘B.S.‘ es el acrónimo de ‘bullshit‘, traducible como ‘trola’ o ‘sandez’ en español) y que, una vez instalada, permitirá que los usuarios vean una advertencia en rojo junto a cualquier publicación que remita a fuentes informativas de dudosa calidad.
La herramienta tiene sus limitaciones, pues para llevar a cabo esta tarea se basa en una ‘lista negra’ de sitios web (que no de contenidos concretos) elaborada por el propio Sieradski. Pero para muchos usuarios es un comienzo prometedor que les permitirá volver a mirar con confianza las publicaciones de su newsfeed.
Pero ni todo es culpa de Facebook, ni la solución a los problemas de la fiabilidad de la información deben quedar en manos de un programador: el usuario también tiene su parte de responsabilidad. En 2014, el CEO de Chartbeat, una compañía de analítica web en tiempo real, anunció que sus estudios sobre Twitter no habían encontrado ninguna correlación entre el número de veces que se comparte un artículo y la cantidad de veces que efectivamente se lee. Eso nos podría hacer pensar que muchas veces la gente proporciona visibilidad a los contenidos en base a lo impactante de sus titulares o a en qué medida respaldan sus propios prejuicios.
@jeffjarvis @shafqatislam @zseward @felixsalmon We've found effectively no correlation between social shares and people actually reading
— Tony Haile (@arctictony) February 2, 2014
Vía | Mashable