[ad_1]
Si alguien puede construir una base, ese es Taylor Swift.
Cuando imágenes de Swift sexualmente explícitas, probablemente generadas por IA, comenzaron a circular en las redes sociales esta semana, galvanizó a sus fanáticos. Swifties encontró frases y hashtags para acompañar las imágenes y las inundó con videos y fotografías de las actuaciones de Swift. “Protect Taylor Swift” se volvió viral y se convirtió en tendencia cuando los Swifties se pronunciaron no solo contra los deepfakes de Swift, sino también contra todas las imágenes explícitas y no consensuadas de mujeres.
Swift, posiblemente la mujer más famosa del mundo en este momento, se ha convertido en la víctima de alto perfil de una forma de acoso demasiado común. Aún no ha comentado públicamente las fotos, pero su estatus le da el poder de prevalecer en una situación en la que tantas mujeres tienen pocos recursos. El porno deepfake se está volviendo cada vez más común a medida que mejora la inteligencia artificial generativa: en los primeros nueve meses de 2023, se subieron 113.000 vídeos deepfake a los sitios web de pornografía más populares, un aumento significativo con respecto a los 73.000 vídeos subidos en 2022. En 2019, un estudio de Una startup descubrió que el 96 por ciento de los deepfakes en línea eran pornográficos.
El contenido se encuentra fácilmente en los motores de búsqueda y las redes sociales y tiene un impacto en otras celebridades femeninas y adolescentes. Sin embargo, muchas personas no comprenden el alcance total del problema ni su impacto. Swift y el frenesí mediático que la rodea tienen el potencial de cambiar eso.
«Parece que este podría ser uno de esos eventos desencadenantes» que podrían conducir a cambios legales y sociales relacionados con los deepfakes no consensuados, dice Sam Gregory, director ejecutivo de Witness, una organización sin fines de lucro que se centra en el uso de imágenes y vídeos centrados en proteger los derechos humanos. Pero Gregory dice que la gente todavía no entiende cuán común es la pornografía deepfake y cuán dañina puede ser para las víctimas.
En todo caso, este desastre de deepfake recuerda a la filtración de iCloud en 2014, que provocó la difusión en línea de fotografías de celebridades desnudas como Jennifer Lawrence y Kate Upton y provocó llamados a una mayor protección de las identidades digitales de las personas. Apple finalmente amplió las funciones de seguridad.
Algunos estados tienen leyes sobre deepfakes no consensuales y también hay medidas federales para prohibirlos. El representante Joseph Morelle (demócrata por Nueva York) presentó un proyecto de ley en el Congreso que haría ilegal crear y compartir pornografía deepfake sin el consentimiento de una persona. Otro proyecto de ley de la Cámara de Representantes de la representante Yvette Clarke (demócrata por Nueva York) tiene como objetivo brindar a las víctimas de pornografía deepfake un recurso legal. El representante Tom Kean, Jr. (republicano por Nueva Jersey), que presentó en noviembre un proyecto de ley que exigía etiquetar el contenido de IA, aprovechó el momento viral de Swift para llamar la atención sobre sus esfuerzos: “No importa la víctima Taylor Swift o cualquier joven El hombre es gente en nuestro país; debemos tomar medidas de protección para contrarrestar esta tendencia alarmante”, dijo Kean en un comunicado.
Esta no es la primera vez que Swift o Swifties intentan responsabilizar a las plataformas y a las personas. En 2017, Swift ganó una demanda contra un DJ de radio que supuestamente la manoseó en un encuentro. Se le concedió 1 dólar, la cantidad por la que estaba demandando, y lo que su abogado, Douglas Baldridge, llamó una suma simbólica «cuyo valor para todas las mujeres en esta situación es inconmensurable».
[ad_2]