[ad_1]
YouTube dice que sus sistemas funcionan como se supone que deben hacerlo. «El informe de Mozilla no tiene en cuenta cómo funcionan realmente nuestros sistemas, por lo que es difícil para nosotros obtener mucha información», dice la portavoz de YouTube, Elena Hernández, y agrega que los espectadores tienen control sobre sus recomendaciones. Esto incluye «la capacidad de evitar que se les recomiende un video o canal en el futuro».
Cuando Mozilla y YouTube interpretan de manera diferente qué tan exitosas son sus publicaciones «No recomendar», parece ser la similitud de temas, personas o contenido. YouTube dice que pedirle a su algoritmo que no recomiende un video o canal simplemente evita que el algoritmo recomiende ese video o canal en particular, y el acceso de un usuario a un tema, opinión o orador en particular no se ve afectado. «Nuestros controles no filtran temas o puntos de vista completos, ya que eso podría tener un impacto negativo en los espectadores, como: B. crear cámaras de eco”, dice Hernández.
Jesse McCrosky, un científico de datos que trabaja con Mozilla en el estudio, dice que no está del todo claro a partir de las declaraciones públicas de YouTube y la investigación publicada sobre sus sistemas de recomendación. «Tenemos algunos pequeños atisbos de la caja negra», dice, que muestran que, en términos generales, YouTube considera dos tipos de comentarios: en el lado positivo, el compromiso, como el compromiso. B. cuánto tiempo ven los usuarios YouTube y cuántos videos miran; y comentarios explícitos, incluidos los que no me gustan. “Tienen cierto equilibrio, la medida en que respetan esos dos tipos de comentarios”, dice McCrosky. «Lo que vimos en este estudio es que la ponderación del compromiso es bastante exhaustiva y hay un respeto mínimo por otros tipos de comentarios».
Distinguir entre lo que YouTube piensa que dice sobre sus algoritmos y lo que dice Mozilla es importante, dice Robyn Caplan, investigador principal de Data & Society, una organización sin fines de lucro de Nueva York que ha estudiado previamente el algoritmo de YouTube. “Algunos de estos resultados no contradicen lo que dice la plataforma, pero muestran que los usuarios no están seguros de qué características están implementadas para permitirles controlar su experiencia, a diferencia de qué características están implementadas para proporcionar comentarios a los creadores de contenido. .» Ella dice. Caplan acoge con satisfacción el estudio y sus hallazgos, y dice que, si bien la revelación slam-dunk prevista por Mozilla puede ser más silenciada de lo que esperaban los investigadores, aún resalta un problema importante: los usuarios están confundidos sobre el control que tienen sobre sus recomendaciones de YouTube. «Esta investigación respalda la necesidad general de encuestar regularmente a los usuarios sobre la funcionalidad del sitio», dice Caplan. «Si estos mecanismos de retroalimentación no funcionan según lo previsto, pueden desanimar a la gente».
La confusión sobre la funcionalidad prevista de la entrada del usuario es un tema central de la segunda parte del estudio de Mozilla: una encuesta cualitativa de seguimiento de alrededor de una décima parte de quienes instalaron la extensión RegretsReporter y participaron en el estudio. Aquellos con los que habló Mozilla dijeron que apreciaban que las indicaciones estuvieran dirigidas específicamente a videos y canales, pero esperaban que esto informara más completamente al algoritmo de recomendación de YouTube.
«Encontré este tema interesante porque muestra que estas son personas que dicen: ‘No solo te digo que bloqueé este canal. Este es mi intento de ejercer más control sobre los otros tipos de referencias que recibiré en el futuro'», dice Ricks. Mozilla recomienda en su estudio que YouTube brinde a los usuarios más oportunidades para dar forma proactivamente a sus propias experiencias articulando sus preferencias de contenido, y que la empresa explique mejor cómo funcionan sus sistemas de recomendación.
Para McCrosky, el principal problema es que existe una brecha entre los mensajes que los usuarios de YouTube perciben a través de sus entradas algorítmicas y lo que realmente están haciendo. «Hay una discrepancia en el grado en que respetan esas señales», dice.
[ad_2]