Qué están haciendo Twitter, Facebook y YouTube contra la desinformación

Periodismo y tecnología

5 de Marzo de 2018

Qué están haciendo Twitter, Facebook y YouTube contra la desinformación

Hace más de un año, las redes sociales están intentando controlar la manipulación y desinformación que ocurre dentro de ellas. ¿Cómo les ha ido?

Convivencias en red

Las plataformas digitales ya no pueden alegar inocencia. Aunque durante años afirmaron que solo eran canales neutrales de lo que sus usuarios publicaban, la presión de gobiernos y usuarios los está obligando a hacer más para enfrentar el problema de la desinformación sistemática que sus algoritmos ayudan a diseminar.

Hoy, muchas de ellas han implementado medidas que buscan entorpecer la difusión de contenidos engañosos. Ha sido una especie de juego del gato y el ratón contra los desinformadores organizados, que han sido muy hábiles en sacar provecho de las características de cada una de ellas.

 

Twitter: intentando entender

El anuncio de Twitter de que impediría retuitear, dar ‘me gusta’ o publicar mensajes en varias cuentas de forma automática es una táctica más en esta lucha contra la desinformación y la manipulación que se libra desde Silicon Valley.

La medida busca hacer más difícil el uso de ‘bots’ para ‘inflar’ tendencias en la plataforma por medio de ‘ejércitos’ de cuentas, que tuitean una palabra o etiqueta en poco tiempo y pueden convertirla en trending topic aunque no sea popular entre los usuarios ‘de carne y hueso’. Así, por ejemplo, es posible manipular una conversación orgánica, o hacer creer que una idea o una persona es más visible de lo que es en realidad.

Pero esa es solo una de las maneras en la que Twitter se usa para mentir. Los tuits desinformadores a menudo se difunden a toda velocidad, pero los desmentidos, no tanto. Basta hacer una captura de pantalla de cualquier tuit y cambiarle el texto —incluso hay herramientas que lo hacen en línea—, o incluso, crear cuentas que buscan suplantar el nombre de una cuenta y que, con una mirada rápida, son indistinguibles: basta con cambiar una ‘i’ mayúscula con una ‘l’ minúscula, por ejemplo.

Con un poco de cuidado, los usuarios podemos advertir estos bulos: a menudo los pequeños detalles los delatan. Pero el servicio no tiene una manera “escalable” de solucionar el problema de los contenidos falsos, a pesar de que lleva meses “intentando entender [el problema] y priorizar [una solución]”. Al menos, eso admitió Jack Dorsey, su cofundador y actual presidente.

 

YouTube y la ‘máquina de desinformación’

En octubre pasado, la socióloga de medios turca Zeynep Tufecki ya advertía que, en YouTube, “el buscador y la máquina de recomendación son máquinas de desinformación”.

Y a comienzos de febrero, el exempleado de YouTube Guillaume Chaslot reveló en The Guardian cómo los productores de videos sobre teorías de conspiración ‘domaron’ el algoritmo que decide qué contenidos recomendarle al usuario para difundir sus contenidos. Jonathan Albright, profesor de periodismo de la Universidad de Columbia, llegó a la misma conclusión en un estudio similar.

Los creadores de teorías de conspiración lograron que el algoritmo de YouTube trabaje para ellos.

Básicamente, los desinformadores lograron que la plataforma recomiende sus contenidos, consiguiendo así que sean vistos millones de veces. Así, videos que, por ejemplo, afirman que la ex primera dama de Estados Unidos Michelle Obama es un hombre, o que la Tierra es plana, se reproducen automáticamente después de los que los usuarios realmente quieren ver. Además, esto hace que los bulos aparezcan en los primeros lugares de búsquedas, lo que potencia su alcance.

YouTube primero dijo que “discrepaba fuertemente” con la metodología que empleó Chaslot y le quitó importancia a sus hallazgos, pero luego admitió que su exempleado estaba en lo cierto. “Sabemos que hay mucho por hacer y esperamos hacer anuncios al respecto en los próximos meses”, declaró el servicio de videos al Guardian.

 

Facebook, y la verificación a medias

Al principio, Mark Zuckerberg consideraba “una idea muy loca” que la plaga de desinformación que sufrió Facebook hubiera influido en el resultado de las elecciones en Estados Unidos. A pesar de que ‘Zuck’ dijo que estaba arrepentido de esas palabras, Rob Goldman, el vicepresidente de publicidad de Facebook, afirmó un año y medio después que el objetivo de la campaña rusa de manipulación no era cambiar las elecciones. El ‘no’ estaba en mayúsculas. A Goldman también le tocó disculparse después.

La red social anunció en 2016 una alianza con algunos sitios de verificación de datos en Estados Unidos para que analizaran contenidos que los usuarios reportaran como posiblemente engañosos. Luego, dijo que priorizaría los contenidos publicados por usuarios en detrimento de los contenidos publicados por medios, y finalmente, que les permitiría a los usuarios decidir en qué medios confían, para luego darles prioridad entre los contenidos que ve la gente en la plataforma.

Aunque los usuarios han reportado millones de contenidos, parece que la iniciativa no ha tenido la escala necesaria. “Los verificadores de datos apenas están arañando la superficie de lo que la gente reporta”, escribe Politifact, uno de los medios que se alió con la red social para verificar información.

Además, Facebook no siempre comparte toda la información relevante con sus aliados. Por ejemplo, los verificadores no saben qué pasa con los contenidos luego de ser desmentidos —la red social dice internamente que su difusión baja en un 80%, pero esa cifra no ha podido ser verificada de manera independiente.

Algunos usuarios están comenzando a pensar críticamente en las consecuencias de utilizar las plataformas digitales.

Y aunque Facebook informa cuáles contenidos posiblemente falsos son más populares, los verificadores dicen que esa información es insuficiente para saber si esos deberían ser verificados primero. Alexios Mantzarlis, director de la red internacional de fact-checkers del instituto Poynter, le dijo a Politico que sería importante saber cuánto tiempo pasó entre la publicación de una nota y el momento en el que fue reportada, pues eso sería útil para saber cuánto daño había hecho y qué tan urgente es verificarla.

 

El balance

Han pasado varias cosas buenas. Primero, que los servicios digitales se están comenzando a trabajar en el problema de la desinformación, y le están poniendo recursos e inteligencia a intentar solucionarlo. Este cambio no es menor: hasta hace poco, la política oficial de estos servicios básicamente era no meter las manos en lo que los usuarios publicaran mientras no fuera ilegal.

Además, todo esto está logrando que los usuarios comiencen a pensar críticamente en las consecuencias de utilizar las plataformas digitales. No solo para aprender a cazar mentiras y evitar engaños, sino también para entender mejor cómo funcionan los servicios que usan todos los días, y cómo los afectan las decisiones que se toman en salas de juntas de Silicon Valley.

Lo malo es que los desinformadores siguen haciendo de las suyas a pesar de todo esto. Internet todavía se llena de bulos cada vez que hay una tragedia. Pasó en la masacre de Las Vegas y en el tiroteo en la escuela de Florida. En Colombia, la manipulación y la desinformación son una herramienta más en la campaña electoral.

El problema parece ser que la desinformación se alimenta de las mismas herramientas que hacen que los servicios digitales sean populares y ganen dinero. Controlar los bulos en Twitter implicaría crear una manera de atajarlos antes de que se viralicen, y nadie sabe cómo hacer eso sin darle demasiado espacio a la censura ni acabar con la inmediatez del servicio, que es su corazón mismo.

Evitar la difusión de videos engañosos en YouTube significaría modificar el algoritmo que hace que la gente pase horas viendo videos. Y mientras Facebook mantenga enganchada a la gente mostrándole solo lo que quiere ver, va a seguir siendo un espacio fértil para los bulos que apelan a la emoción y a las convicciones profundas de las personas.

Por eso, algunas voces se están preguntando si el problema tiene solución. ¿Es la desinformación una consecuencia inevitable de las redes sociales y sus modelos comerciales? Es un debate sano y necesario.

©Fundación Gabo 2019 - Todos los derechos reservados.