[ad_1]
Usamos un sistema de seguridad de múltiples niveles para limitar la capacidad de DALL·E 3 de generar imágenes potencialmente dañinas, incluido contenido violento, para adultos u odioso. Los controles de seguridad pasan por las indicaciones del usuario y las imágenes resultantes antes de mostrarse a los usuarios. También trabajamos con los primeros usuarios y los miembros del equipo rojo senior para identificar y abordar las brechas en la cobertura de nuestros sistemas de seguridad que surgieron con las características de los nuevos modelos. Por ejemplo, los comentarios nos ayudaron a identificar casos extremos para generar contenido gráfico, como imágenes sexuales, y a probar la capacidad del modelo para generar imágenes convincentemente engañosas.
Como parte del trabajo de preparación para el despliegue de DALL·E 3, también tomamos medidas para limitar la probabilidad de que el modelo genere contenido al estilo de artistas vivos o imágenes de figuras públicas, y para ajustar la representación demográfica de cualquier imagen generada. mejorar. Para obtener más información sobre el trabajo que se está realizando para preparar DALL·E 3 para su uso generalizado, consulte el mapa del sistema DALL·E 3.
Los comentarios de los usuarios nos ayudarán a seguir mejorando. Los usuarios de ChatGPT pueden compartir comentarios con nuestro equipo de investigación utilizando el ícono de bandera para notificarnos sobre resultados no seguros o resultados que no reflejan con precisión el mensaje que usted proporcionó a ChatGPT. Escuchar a una comunidad de usuarios amplia y diversa y comprender el mundo real es fundamental para el desarrollo y la implementación responsables de la IA y es fundamental para nuestra misión.
Estamos investigando y evaluando una primera versión de un clasificador de procedencia, una nueva herramienta interna que puede ayudarnos a determinar si una imagen fue generada por DALL·E 3 o no. En las primeras evaluaciones internas, tiene una precisión superior al 99 % para determinar si se creó una imagen. DALL·E generó una imagen si no se modificó. La precisión se mantiene por encima del 95% cuando la imagen ha sufrido cambios frecuentes, como Por ejemplo, recortar, cambiar el tamaño, comprimir JPEG o cuando texto o fragmentos de imágenes reales se superponen a pequeñas porciones de la imagen generada. A pesar de estos sólidos resultados en las pruebas internas, el clasificador solo puede decirnos que es probable que DALL·E haya generado una imagen y aún no nos permite sacar conclusiones definitivas. Este clasificador de procedencia podría formar parte de un conjunto de técnicas diseñadas para ayudar a las personas a comprender si el contenido de audio o visual está generado por IA. Es un desafío que requiere colaboración en toda la cadena de valor de la IA, incluidas las plataformas que distribuyen contenido a los usuarios. Esperamos aprender mucho sobre cómo funciona esta herramienta y dónde podría resultar más útil, y mejorar nuestro enfoque con el tiempo.
[ad_2]