[ad_1]
![](https://techcrunch.com/wp-content/uploads/2023/05/GettyImages-1467844599.jpg?w=679)
Meta limitará automáticamente el tipo de contenido que las cuentas adolescentes de Instagram y Facebook pueden ver en las plataformas, anunció la compañía el martes. A estas cuentas se les impide automáticamente ver contenido dañino, como publicaciones sobre autolesiones, violencia gráfica y trastornos alimentarios. Los cambios se producen cuando Meta enfrenta un escrutinio cada vez mayor por las afirmaciones de que sus servicios son perjudiciales para los usuarios jóvenes.
Aunque Meta ya no recomienda este tipo de contenido para adolescentes en plataformas como Reels y Explore, estos nuevos cambios significan que este tipo de contenido ya no aparecerá en feeds e Historias, incluso si fue compartido por alguien a quien sigue un adolescente.
La compañía señala que si bien los usuarios de Instagram y Facebook pueden compartir contenido sobre sus propias luchas contra el suicidio, las autolesiones y los trastornos alimentarios, la política de Meta es desalentar este contenido y hacerlo difícil de encontrar. Ahora, cuando los usuarios busquen términos relacionados con estos temas, Meta ocultará estos resultados relacionados y en su lugar mostrará recursos de expertos para obtener ayuda sobre el tema. Meta dice que ya oculta resultados de términos de búsqueda relacionados con el suicidio y la autolesión, y que esta protección ahora se ampliará para incluir más términos.
Meta también coloca automáticamente todas las cuentas de jóvenes en la configuración de control de contenido más restrictiva en Instagram y Facebook. La configuración se aplicará automáticamente a los nuevos adolescentes que se unan a las plataformas. Sin embargo, ahora se aplica a los adolescentes que ya utilizan las aplicaciones. Los controles de recomendación de contenido, llamados “Control de contenido sensible” en Instagram y “Reducir” en Facebook, tienen como objetivo dificultar que los usuarios encuentren contenido o cuentas potencialmente sensibles en lugares como Buscar y Explorar.
![](https://techcrunch.com/wp-content/uploads/2024/01/02_See-Less-Sensitive-Content.webp)
Autor de la foto: Meta
Con los nuevos cambios, Meta también enviará nuevas notificaciones animando a los adolescentes a actualizar su configuración para que su experiencia en las plataformas sea más privada. La notificación aparece en situaciones en las que un adolescente interactúa con una cuenta de la que no es amigo.
Según Meta, las actualizaciones estarán disponibles para todas las cuentas de adolescentes en las próximas semanas.
Las acciones anunciadas hoy se producen cuando Meta tiene previsto testificar ante el Senado sobre seguridad infantil el 31 de enero, junto con X (anteriormente Twitter), TikTok, Snap y Discord. Se espera que los miembros del comité alerten a los ejecutivos de la empresa sobre la incapacidad de sus plataformas para proteger a los niños en línea.
Los cambios también se producen cuando más de 40 estados están demandando a Meta, alegando que los servicios de la compañía contribuyen a los problemas de salud mental entre los usuarios jóvenes. La demanda alega que durante la última década, Meta ha «alterado profundamente las realidades psicológicas y sociales de una generación de jóvenes estadounidenses» y que «emplea tecnologías poderosas y sin precedentes para atraer, involucrar y, en última instancia, seducir a preadolescentes y jóvenes». Acusa a Meta de «ignorar los graves peligros de promocionar sus productos para obtener ganancias».
[ad_2]