Masacre en Nueva Zelanda: un acto terrorista planificado para ser viral

Periodismo y tecnología

25 de Marzo de 2019

Masacre en Nueva Zelanda: un acto terrorista planificado para ser viral

El video del ataque en Christchurch no activó los sistemas de detección automática en Facebook 

Convivencias en red

El viernes, 15 de marzo, un hombre con armas semiautomáticas se dirigió a la mezquita de Al Noor en el centro de Christchurch, Nueva Zelanda, y comenzó a disparar a todas las personas que veía. 

Este acto terrorista fue transmitido en vivo por su propio autor durante 17 minutos a través de Facebook y rápidamente se difundió en internet, antes de que los sistemas de inteligencia artificial (IA) de Facebook, YouTube y Twitter pudieran detectarlo.

Los agentes de la policía neozelandesa detuvieron al atacante cuando entraba otra vez en el automóvil, donde tenía dos bombas caseras con las que planeaba continuar la masacre.

Al día siguiente, Brenton Tarrant fue acusado formalmente de asesinato como el principal sospechoso de cometer los tiroteos masivos en las mezquitas Al Noor y Linwood que dejaron 50 muertos y varias decenas de heridos, como señala la BBC Mundo. El australiano de 28 años fue identificado como el autor del video que divulgó a través de Facebook Live con una cámara situada en el casco.

Facebook eliminó 1.2 millones de videos del ataque

El video del ataque en Christchurch fue eliminado a los pocos minutos de su realización, pero pudo ser visto 200 veces durante su transmisión sin que ningún usuario lo denunciara en ese momento, indicó Facebook en un comunicado. Incluyendo las visualizaciones en vivo, el contenido completo se reprodujo 4.000 veces. 

Antes de que Facebook recibiera una alerta sobre el video, un usuario de 8chan publicó un enlace con la copia de la grabación en un sitio web para compartir archivos. En las primeras 24 horas, Facebook eliminó más de 1.2 millones de videos del ataque durante la carga en la plataforma. Unas 300.000 copias fueron eliminadas.

También es importante resaltar que Tarrant usó LIVE4, una aplicación que vincula la cámara GoPro al teléfono y de ahí a Facebook con la finalidad de que lo grabado salga al aire de inmediato. 

“LIVE4 no analiza, almacena ni procesa sus transmisiones de ninguna manera”, dijo a Reuters Alex Zhukov, fundador de la aplicación. “No tenemos la capacidad, aunque quisiéramos, de controlar las transmisiones en vivo o después de finalizar”, añadió. 

La responsabilidad del contenido recae completamente y exclusivamente en la persona que inició el directo. La plataforma LIVE4 manifestó que eliminó la cuenta del atacante cuando recibió el aviso de la policía. La propia Reuters buscó el video 10 horas después de los ataques y lo encontró en YouTube, Twitter, Instagram y por WhatsApp.

El sistema de IA de Facebook no pudo detectar el video del ataque

“Los sistemas de IA se basan en ‘datos de entrenamiento’, lo que significa que necesitan miles de ejemplos de contenido para capacitar a un sistema que pueda detectar ciertos tipos de textos, imágenes o videos”, explicó el vicepresidente de producto de Facebook, Guy Rosen.

Rosen considera este enfoque ha funcionado muy bien en áreas como desnudos, propaganda terrorista y también la violencia gráfica, donde hay una gran cantidad de ejemplos que pueden usar para adiestrar el sistema de IA de Facebook. Sin embargo, el video del ataque en Nueva Zelanda no activó los sistemas de detección automática. 

“Para lograrlo, tendremos que proporcionar a nuestros sistemas grandes volúmenes de datos de este tipo específico de contenido, algo que es difícil porque estos son eventos afortunadamente raros”, aclaró Rosen. 

El ejecutivo de Facebook admite que la IA es una parte “increíblemente importante” en la lucha contra el contenido terrorista en las plataformas y que nunca será perfecto, a pesar de las mejoras.

Las personas siguen siendo parte de la ecuación para Facebook, ya sean los integrantes del equipo que se encargan de revisar el contenido o los usuarios que utilizan sus servicios e informan sobre el contenido inapropiado.

YouTube retiró decenas de miles de videos

YouTube anunció el retiro de “decenas de miles de videos” de su plataforma que mostraban el atentado terrorista. También dijo que el volumen de grabaciones del ataque subidas a la red por usuarios a partir de la transmisión original, que fue eliminada de inmediato, “no tiene precedentes tanto por su escala como por su rapidez”, como indicó la agencia EFE.

Horas posteriores al atentado, la velocidad con la cual los videos fueron cargados al portal propiedad de Alphabet llegó a alcanzar una nueva subida cada segundo. La compañía aseguró que eliminó las cuentas que “promovían o glorificaban lo ocurrido”.

Twitter también hizo lo propio para evitar la difusión de la filmación y el manifiesto adjunto que redactó el francotirador; pero, como en otras redes sociales, no pudo ante la velocidad de sus usuarios. 

“Por aterradora que sea la violencia, este asunto también se trata de lo bien que la comunidad en línea funcionó a favor del atacante. Esta quizá sea nuestra nueva realidad”, expresó Charlie Warzel en el NYT. Para el escritor de tecnología, el odio conspirativo no solo se ha expandido del internet a la vida real, sino que también está armado para volverse viral. 

©Fundación Gabo 2019 - Todos los derechos reservados.