[ad_1]
«Trabajaremos con Microsoft para explorar si existen oportunidades de utilizar nuestro archivo de materiales para crear algún tipo de sistema de detección de IA genética para abordar la amenaza emergente del uso a gran escala de IA genética para contenido terrorista», dice Hadley. «Confiamos en que la IA genética se puede utilizar para disuadir la explotación hostil de la IA genética».
La asociación se anunció hoy en París, en vísperas de la Cumbre de Líderes del Llamado de Christchurch, un movimiento para eliminar el terrorismo y el contenido extremista de Internet.
«El uso de plataformas digitales para difundir contenidos extremistas violentos es un problema urgente con consecuencias reales», afirmó en un comunicado Brad Smith, vicepresidente y presidente de Microsoft. «Al combinar las capacidades de Tech Against Terrorism con la IA, esperamos ayudar a crear un mundo más seguro tanto en línea como fuera de línea».
Si bien empresas como Microsoft, Google y Facebook tienen sus propios departamentos de investigación de IA y probablemente ya estén dedicando sus propios recursos a combatir este problema, la nueva iniciativa ayudará en última instancia a aquellas empresas que no pueden combatir estos esfuerzos por sí solas.
«Esto será especialmente importante para las plataformas más pequeñas que no tienen sus propios centros de investigación de IA», afirma Hadley. «Incluso ahora, con las bases de datos hash, las plataformas más pequeñas pueden verse abrumadas por este contenido».
La amenaza del contenido generativo de IA no se limita a los grupos extremistas. El mes pasado, Internet Watch Foundation, una organización sin fines de lucro con sede en el Reino Unido que trabaja para eliminar el contenido de explotación infantil de Internet, publicó un informe que destaca la creciente presencia de material de abuso sexual infantil (CSAM) creado por herramientas de inteligencia artificial en la Dark Web. detallado.
Los investigadores encontraron más de 20.000 imágenes generadas por IA publicadas en un foro CSAM de la web oscura en el transcurso de solo un mes, y 11.108 de estas imágenes fueron clasificadas por los investigadores de la IWF como muy probablemente criminales. Como escriben los investigadores del FMI en su informe: “Estas imágenes de IA pueden ser tan convincentes que no se pueden distinguir de las imágenes reales”.
[ad_2]