Analistas señalan que YouTube ‘aprende’ a recomendar contenidos pedófilos y extremistas. La presidenta de la empresa dice que el servicio está “aprendiendo a entender qué está pasando”.
Era un video inocente, de dos niñas jugando en una piscina. Pero de repente se hizo muy popular en YouTube. “Vi el video nuevamente y me asusté por el número de visitas”, le dijo la madre de una de las chicas a The New York Times. Demasiadas para un video familiar.
Resulta que el video, al parecer, cayó en lo que los investigadores llaman ‘el efecto madriguera’. Cuando una persona termina de ver un video en YouTube, el algoritmo le recomienda otro. El objetivo de esa herramienta es que los usuarios pasen más tiempo en el sitio y vean más avisos publicitarios en cada sesión, por lo que la recomendación debe ser tan atinada como sea posible. Ese algoritmo funciona por medio de una inteligencia artificial que ‘aprende’ los gustos de los usuarios, la cual se ‘entrena’ cada vez que una persona elige ver un video después de otro.
El diario reseñó una investigación del centro Berkman de la Universidad de Harvard, especializado en estudios sobre internet. La investigación encontró que “un usuario que mira videos eróticos puede recibir recomendaciones de videos de mujeres que se vuelven sospechosamente más jóvenes y después de mujeres que posan de maneras provocativas usando ropa de niños. Al final, a algunos usuarios les podrían ser presentados videos de niñas tan jóvenes que sus edades oscilen entre los 5 y los 6 años y vistan trajes de baño”. El algoritmo, al parecer, aprendió a recomendar contenidos con menores de edad tras imitar lo que hacen sus usuarios pedófilos, que buscan ese tipo de contenidos en la plataforma.
Tras la denuncia, el algoritmo dejó de recomendar algunos de esos videos, aunque una vocera de YouTube citada por el diario dijo que se debió a “un cambio rutinario”.
“Los videos sobre vegetarianismo conducían a videos sobre veganismo. Los videos sobre trotar conducían a videos sobre correr ultramaratones”: Zeynep Tufecky, tecnosocióloga.
De todos modos, no es la primera vez que se acusa a YouTube de amplificar contenidos chocantes o sensacionalistas. “El algoritmo parece haber concluido que la gente se siente atraída por contenidos más extremos que los que comenzaron viendo, o, en general, por contenidos incendiarios”, escribió en 2018 la tecnosocióloga Zeynep Tufecki en un artículo que describía un comportamiento similar al de videos de las niñas: “Los videos sobre vegetarianismo conducían a videos sobre veganismo. Los videos sobre trotar conducían a videos sobre correr ultramaratones”.
Otros investigadores han planteado que este comportamiento ha hecho que YouTube sea una herramienta útil para los actores políticos que quieren radicalizar a las audiencias: gracias al algoritmo de recomendación, los canales que difunden teorías de conspiración, o que impulsan ideas políticas extremas, se han vuelto populares. Además, estos creadores “adoptan las técnicas de los influencers comerciales para construir audiencias y ‘venderles’ ideologías de extrema derecha”, como escribe la investigadora Rebecca Lewis, de Data&Society, en un informe sobre el tema.
El tema ya despertó el interés del Congreso de Estados Unidos. Tres senadores de ese país anunciaron que radicarán un proyecto de ley para evitar que YouTube y otros servicios similares puedan recomendar videos de menores de edad a sus usuarios, reportó The Verge. “Los contenidos podrían aparecer como resultados de búsqueda, pero las plataformas no los podrán recomendar en sus barras de recomendaciones”, explica el medio.
¿Qué está haciendo YouTube al respecto? Su presidenta, Susan Wojcicki, admitió en una entrevista reciente que la empresa no tiene todo el control sobre lo que hace su algoritmo ni sobre lo que sucede en la plataforma. “Trabajamos duro para entender qué ocurre en ella […] No digo que hayamos terminado, pero creo que se puede ver que hemos progresado”, dijo. Frente un escándalo similar en el pasado mes de febrero, el servicio deshabilitó los comentarios en los videos donde aparecen menores de edad. Según reportó Wired entonces, estaban siendo usados por pedófilos para recomendar otros contenidos y enviar mensajes lascivos a los niños que aparecen en los contenidos.