Introducción de los principios de “Seguridad por diseño”
[ad_1]
OpenAI, junto con líderes de la industria como Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI y Stability AI, se comprometen a implementar estrictas medidas de seguridad infantil en el desarrollo, implementación y mantenimiento de tecnologías de IA generativa, como se describe. en los principios de Seguridad por Diseño. Esta iniciativa, liderada por Thorn, una organización sin fines de lucro dedicada a proteger a los niños del abuso sexual, y All Tech Is Human, una organización dedicada a abordar la tecnología compleja y los problemas sociales, tiene como objetivo reducir los riesgos y reducir el impacto que la IA generativa trae a los niños. Al adoptar principios integrales de seguridad por diseño, OpenAI y nuestros colegas garantizan que la seguridad infantil sea una prioridad en cada etapa del desarrollo de la IA. Hasta la fecha, hemos realizado importantes esfuerzos para minimizar el potencial de nuestros modelos para generar contenido perjudicial para los niños, establecer restricciones de edad para ChatGPT y colaborar activamente con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), la Coalición Tecnológica y otros gobiernos y representantes de la industria sobre cuestiones de protección infantil y mejoras en los mecanismos de presentación de informes.
Como parte de este esfuerzo de Seguridad por Diseño, nos comprometemos a lo siguiente:
-
Desarrollar: Desarrollar, construir y entrenar modelos de IA generativa que aborden de manera proactiva los riesgos de seguridad infantil.
-
Obtenga nuestros conjuntos de datos de capacitación de manera responsable, detecte y elimine material de abuso sexual infantil (CSAM) y material de explotación sexual infantil (CSEM) de los datos de capacitación, e informe cualquier CSAM confirmado a las autoridades correspondientes.
-
Integre ciclos de retroalimentación y estrategias iterativas de pruebas de estrés en nuestro proceso de desarrollo.
- Implementar soluciones para combatir el abuso adversario.
-
-
Insertar: Liberar y distribuir modelos de IA generativa después de que hayan sido capacitados y evaluados para la seguridad infantil, garantizando la protección durante todo el proceso.
-
Atender y responder a contenidos y comportamientos abusivos e incorporar medidas de prevención.
- Promover la apropiación de la seguridad por diseño por parte de los desarrolladores.
-
-
Mantener: Mantenga seguros los modelos y plataformas continuando entendiendo y respondiendo activamente a los riesgos de seguridad infantil.
-
Nos comprometemos a eliminar de nuestra plataforma los nuevos CSAM de AIG generados por actores maliciosos.
- Invertir en investigación y soluciones tecnológicas futuras.
- Combate CSAM, AIG-CSAM y CSEM en nuestras plataformas.
-
Este compromiso representa un paso importante para prevenir el uso indebido de las tecnologías de inteligencia artificial para crear o distribuir material de abuso sexual infantil (AIG-CSAM) y otras formas de abuso sexual infantil. Como parte del grupo de trabajo, también hemos acordado publicar actualizaciones de progreso cada año.
[ad_2]
Deja una respuesta