[ad_1]
En junio, Global Witness y Foxglove descubrieron que Meta seguía aprobando anuncios en amárico dirigidos a usuarios etíopes que contenían expresiones de odio e incitación a la violencia. Facebook ha estado implicado en la difusión del discurso de odio y la incitación a la violencia étnica en el conflicto en curso en Etiopía.
Crider argumenta que Facebook necesita invertir más en sus prácticas de moderación y en la protección de la democracia. Le preocupa que incluso la amenaza de una prohibición le permita a la empresa desviar la responsabilidad por los problemas que no ha abordado.
«Creo que en el momento en que un regulador mira a Facebook y parece que realmente va a obligarlos a hacer algo que podría costarles algo de dinero, terminan aullando sobre la censura y una elección equivocada para cumplir con que es esencialmente un moderador y Facebook no regulado, o sin Facebook en absoluto”, dice.
Y Crider dice que hay cosas que la compañía puede hacer, incluidas las medidas de «romper el cristal», como quitarle prioridad a su video en vivo muy promocionado, o limitar el alcance del contenido incendiario y prohibir la publicidad relacionada con las elecciones antes de la votación.
Mercy Ndegwa, directora de políticas públicas de Meta para África Oriental y el Cuerno de África, dijo a WIRED que la compañía «ha tomado medidas integrales para ayudarnos a abordar el discurso de odio y el contenido incendiario en Kenia y estamos intensificando esos esfuerzos antes de las elecciones». Sin embargo, reconoció que «pese a estos esfuerzos, sabemos que habrá ejemplos de cosas que pasamos por alto o que anotamos erróneamente, ya que tanto las máquinas como los humanos cometemos errores». que hablan swahili u otros idiomas de Kenia, o la naturaleza de sus conversaciones con el gobierno de Kenia.
«Los investigadores sometieron a prueba los sistemas de Facebook y demostraron que lo que decía la empresa era una tontería», dice Madung. El hecho de que Meta permitiera anuncios en la plataforma, a pesar de un proceso de investigación, «plantea dudas sobre su capacidad para manejar otras formas de discurso de odio», dice Madung, incluida la gran cantidad de contenido generado por el usuario que no requiere aprobación previa.
Pero prohibir las plataformas de Meta, dice Madung, no eliminará la desinformación o las tensiones étnicas porque no aborda la causa raíz. «No es una cuestión que sea mutuamente excluyente», dice. «Tenemos que encontrar un equilibrio entre los enfoques de mano dura y la verdadera responsabilidad de la plataforma».
El sábado, Joseph Mucheru, Secretario de Gabinete para Internet y Tecnologías de la Comunicación (TIC), tuiteó, “Los medios, incluidas las redes sociales, seguirán disfrutando de la LIBERTAD DE PRENSA en Kenia. No está claro qué marco legal pretende utilizar el NCIC para bloquear Facebook. El gobierno está registrado. NO estamos cerrando Internet”. Actualmente, no existe un marco legal que le permita al NCIC ordenar la suspensión de Facebook, está de acuerdo Bridget Andere, analista de políticas de África en la organización sin fines de lucro de derechos digitales Access Now.
«Plataformas como Meta han fracasado por completo en el tratamiento de la desinformación, la desinformación y el discurso de odio en Tigray y Myanmar», dijo Other. «El peligro es que los gobiernos usen esto como una excusa para los cierres de Internet y los bloqueos de aplicaciones cuando, en cambio, debería alentar a las empresas a invertir más en la moderación del contenido humano y hacerlo de una manera ética y que respete los derechos humanos».
A Madung también le preocupa que, independientemente de que el gobierno bloquee Facebook e Instagram ahora, el daño ya podría estar hecho. «Los efectos se verán en otro momento», dice. «El problema es que el precedente está oficialmente disponible ahora y podría ser mencionado en cualquier momento».
[ad_2]