[ad_1]
Usar el chatbot es más directo y quizás más atractivo, dice Donald Findlater, director de la línea directa Stop It Now operada por la Fundación Lucy Faithfull. Después de que el chatbot apareciera más de 170 000 veces en marzo, 158 personas hicieron clic en el sitio web de la línea de ayuda. Aunque el número es «modesto», dice Findlater, estas personas han dado un paso importante. “Superaron muchos obstáculos para hacer eso”, dice Findlater. “Cualquier cosa que impida que las personas comiencen el viaje es una medida del éxito”, agrega Hargreaves del FMI. “Sabemos que la gente lo usa. Sabemos que hacen referencias, sabemos que acceden a los servicios”.
Pornhub tiene una reputación mixta por moderar videos en su sitio, y los informes han detallado cómo las mujeres y las niñas han estado subiendo videos de ellas mismas sin su consentimiento. En diciembre de 2020, Pornhub eliminó más de 10 millones de videos de su sitio y exigió a las personas que subieron contenido que verificaran su identidad. El año pasado, se eliminaron 9000 piezas de MASI de Pornhub.
«El chatbot de IWF es otra capa de protección para garantizar que los usuarios estén informados de que no encontrarán ningún material ilegal de este tipo en nuestra plataforma y los dirige a Stop It Now para cambiar su comportamiento», dice un portavoz de Pornhub, y agrega que tiene » tolerancia cero” para el material ilegal y tiene políticas claras en torno al MASI. Los involucrados en el proyecto de chatbot dicen que Pornhub se ofreció como voluntario para participar, no se le pagará por ello y el sistema se ejecutará en el sitio de Pornhub en el Reino Unido durante el próximo año antes de ser evaluado por científicos externos.
John Perrino, analista de políticas del Observatorio de Internet de Stanford que no está afiliado al proyecto, dice que en los últimos años ha habido un aumento en el desarrollo de nuevas herramientas que utilizan la «seguridad por diseño» para combatir los daños en Internet. “Es una colaboración interesante, en línea con la política y la percepción pública, para ayudar a los usuarios y educarlos sobre recursos saludables y hábitos saludables”, dice Perrino. Agrega que nunca antes había visto una herramienta de este tipo desarrollada para un sitio web de pornografía.
Ya existe alguna evidencia de que este tipo de intervención tecnológica puede marcar la diferencia al distraer a las personas del material potencial de abuso sexual infantil y reducir la cantidad de búsquedas de MASI en línea. Por ejemplo, Google trabajó con la Fundación Lucy Faithfull en 2013 para presentar alertas cuando las personas buscan términos que podrían estar asociados con MASI. Como resultado de las advertencias, las búsquedas de material de abuso sexual infantil «se multiplicaron por 13», dijo Google en 2018.
Un estudio separado de 2015 encontró que los motores de búsqueda que implementaron medidas de bloqueo contra términos relacionados con el abuso sexual infantil redujeron drásticamente la cantidad de búsquedas en comparación con aquellos que no tomaron ninguna medida. Una serie de anuncios diseñados para dirigir a las personas que buscan MASI a centros de asesoramiento en Alemania obtuvo 240 000 clics en el sitio web y más de 20 millones de impresiones durante un período de tres años. Un estudio de 2021 que examinó los mensajes emergentes de advertencia en los sitios web de apuestas encontró que los empujones tenían un «efecto limitado».
Los involucrados con el chatbot enfatizan que no lo ven como la única forma de evitar que las personas encuentren material de abuso sexual infantil en línea. “La solución no es una bala mágica que detenga la demanda de abuso sexual infantil en línea. Se utiliza en un entorno específico”, dice Sexton. Sin embargo, si el sistema tiene éxito, agrega, podría expandirse a otros sitios web o servicios en línea.
«También buscarán en otros lugares, ya sean diferentes sitios de redes sociales o diferentes plataformas de juegos», dice Findlater. Sin embargo, si esto sucediera, sería necesario evaluar los desencadenantes que hacen que aparezca y reconstruir el sistema para el sitio web específico en el que se encuentra. Por ejemplo, los términos de búsqueda utilizados por Pornhub no funcionarían en una búsqueda de Google. «No podemos traducir un conjunto de advertencias a otro contexto», dice Findlater.
[ad_2]