La Fundación Mozilla ha realizado un amplio estudio para determinar si las herramientas que YouTube ofrece a los usuarios para controlar sus recomendaciones funcionan. Los resultados no dejan lugar a dudas: son, en su mayoría, ineficaces.
Un estudio de siete meses
Los investigadores analizaron siete meses de actividad en YouTube entre 22.722 voluntarios. Su objetivo era evaluar las cuatro formas en que los usuarios de la plataforma propiedad de Google podían ajustar sus recomendaciones: haciendo clic en » No me gusta «, » No me interesa «, » Borrar del historial «o» No recomiendo este canal «.
Para recoger los datos necesarios, pidieron a los participantes que utilizaran la extensión RegretsReporter de Mozilla. Esto añade un botón » No recomendar más «Pulsando este botón en la parte superior de cada vídeo de YouTube. Al pulsarlo, se activa automáticamente una de las cuatro respuestas de ajuste del algoritmo, lo que facilitó a los investigadores el análisis de los datos, y su descubrimiento no es bueno para el gigante del vídeo.
» La gente cree que el uso de los controles de usuario de YouTube no cambia sus recomendaciones «Escriben en su informe. En efecto, al hacer clic en » No me gusta «, la forma más visible de dar una reseña negativa en la plataforma, sólo frena el 12% de las malas recomendaciones, mientras que el » No me interesa «es sólo un 11% de efectividad.
Las herramientas que mejor funcionan son las que dan un mando a YouTube. Por ejemplo, » Borrar del historial » reduce las derivaciones adversas en un 29%, mientras que » No recomiendo este canal «elimina el 43% de las malas recomendaciones. Aunque estas dos funciones son las más eficaces, aún están lejos de ser perfectas, con una eficacia inferior al 50%.

Es probable que las recomendaciones de un usuario contengan contenidos que no le interesan. Foto: NordWood Themes / Unsplash
El algoritmo de YouTube sigue siendo muy opaco
» YouTube debería respetar los comentarios que los usuarios comparten sobre su experiencia, tratándolos como señales significativas sobre cómo la gente quiere pasar su tiempo en la plataforma «, dicen los investigadores. Está claro que no es así: a lo largo de los siete meses que duró el estudio, comprobaron que un vídeo rechazado daba lugar, de media, a unas 115 malas recomendaciones, es decir, vídeos que se parecían mucho a los que los participantes ya habían dicho a YouTube que no querían ver.
Y lo que es peor, el estudio determinó que los contenidos que parecían infringir las políticas de YouTube se seguían recomendando activamente a los usuarios, incluso después de que éstos hubieran enviado comentarios negativos. Por ejemplo, algunos de ellos se dieron cuenta de que los vídeos de un canal que pidieron que se silenciara podían seguir apareciendo en sus sugerencias.
La portavoz de YouTube, Elena Hernández, asegura que parte de este comportamiento es intencionado por parte de YouTube, ya que la plataforma no busca bloquear todos los contenidos relacionados con un mismo tema, sino que procede de forma individualizada en función del vídeo. Sin embargo, criticó el informe publicado por Mozilla, diciendo que no tiene en cuenta la forma en que están diseñados los algoritmos de control de YouTube:
«Es importante señalar que nuestros controles no filtran temas o puntos de vista completos, ya que esto podría tener efectos negativos para los espectadores, como la creación de cámaras de eco. Damos la bienvenida a la investigación académica en nuestra plataforma, por lo que recientemente hemos ampliado el acceso a la API de datos a través de nuestro Programa de Investigación de YouTube. El informe de Mozilla no tiene en cuenta cómo funcionan realmente nuestros sistemas, por lo que nos resulta difícil extraer mucha información.»
Como señala MIT Technology ReviewEl funcionamiento del algoritmo de YouTube es muy desconocido para las personas ajenas al gigante estadounidense, por lo que es lógico que Mozilla no tenga todo el conocimiento sobre este tema, pero la fundación está tratando de entender por qué las acciones de los usuarios de la plataforma no tienen el resultado deseado. Redes sociales como Twitter, TikTok e Instagram también han introducido herramientas similares para ayudar a los usuarios a entrenar al algoritmo para que les muestre contenido relevante.
Sin embargo, los usuarios se quejan a menudo de que, incluso cuando señalan que no quieren ver algo determinado, persisten las recomendaciones de contenidos similares. Según la investigadora de Mozilla Becca Ricks, el problema es que la mayoría de las plataformas no son totalmente transparentes sobre cómo lo hacen, dejando a los usuarios en la oscuridad.
Un impacto real en los usuarios
Las conclusiones del estudio son tanto más preocupantes cuanto que varios informes han demostrado en el pasado que la práctica de YouTube de recomendar vídeos con los que probablemente los usuarios estén de acuerdo, y de premiar los contenidos controvertidos, puede endurecer las opiniones de las personas y conducirlas a la radicalización política. Este mismo año, 80 organizaciones de verificación de hechos denunciaron las noticias falsas que pululan por YouTube, afirmando que la plataforma se ha convertido en uno de los principales motores de desinformación del mundo.
El estudio sugiere que YouTube prioriza el tiempo de visualización sobre la satisfacción del usuario. Sin embargo, si la plataforma quiere que los usuarios tengan más control, debería permitirles entrenar proactivamente al algoritmo excluyendo palabras clave y tipos de contenido de los vídeos recomendados, en lugar de vídeos específicos. Por supuesto, se trata de una tarea difícil para YouTube, que tiene que soportar miles de millones de vídeos de diferentes países e idiomas.
En general, la opacidad de los gigantes tecnológicos sobre sus algoritmos, aunque hayan desplegado más herramientas para moderar los contenidos, afecta a los usuarios. No pueden controlar los contenidos a los que se exponen, por lo que se enfrentan a vídeos a veces violentos o traumáticos en contra de su voluntad.
» Nuestra principal recomendación es que YouTube permita a la gente dar forma a lo que ve. Los controles de usuario de YouTube deben ser fáciles de entender y utilizar. Los usuarios deben recibir información clara sobre los pasos que pueden dar para influir en sus recomendaciones, y deben ser capaces de utilizar estas herramientas «Mozilla» concluye.
Como joven medio de comunicación independiente, OnDigital Magazine necesita tu ayuda. Apóyenos siguiéndonos y marcándonos como favoritos en Google News. Gracias por su apoyo.