[ad_1]
Presentamos una herramienta de moderación de contenido nueva y mejorada: el punto final de moderación mejora nuestro filtro de contenido anterior y está disponible hoy de forma gratuita para los desarrolladores de la API de OpenAI.
Para ayudar a los desarrolladores a proteger sus aplicaciones de posibles abusos, presentamos el punto final de moderación más rápido y preciso. Este punto final brinda a los desarrolladores de API de OpenAI acceso gratuito a clasificadores basados en GPT que detectan contenido no deseado, un ejemplo del uso de sistemas de IA para respaldar el monitoreo humano de estos sistemas. También hemos publicado un documento técnico que detalla nuestra metodología y el conjunto de datos utilizado para la evaluación.
Al ingresar texto, el punto final de moderación evalúa si el contenido es sexual, de odio, violento o fomenta la autolesión, contenido prohibido por nuestra política de contenido. El endpoint ha sido entrenado para ser rápido, preciso y funcionar de manera robusta en una variedad de aplicaciones. Es importante destacar que esto reduce la probabilidad de que los productos «digan» algo incorrecto, incluso cuando se implementan para los usuarios a escala. Como resultado, la IA puede desbloquear ventajas en entornos sensibles como la educación, donde de otro modo no podría implementarse con confianza.
fuerza
autolesiones
Odiar
Sexualmente
punto final de moderación
El punto final de moderación ayuda a los desarrolladores a capitalizar nuestras inversiones en infraestructura. En lugar de crear y mantener sus propios clasificadores, un proceso largo como documentamos en nuestro artículo, pueden acceder a clasificadores precisos a través de una sola llamada a la API.
Como parte del compromiso de OpenAI de hacer que el ecosistema de IA sea más seguro, proporcionamos este punto final para habilitar la moderación gratuita de cualquier contenido generado por la API de OpenAI. Por ejemplo, Inworld, un cliente de la API de OpenAI, utiliza el punto final de moderación para ayudar a sus personajes virtuales basados en IA a «permanecer en el guión». Al aprovechar la tecnología de OpenAI, Inworld puede concentrarse en su producto principal: crear personajes inolvidables.
Además, agradecemos el uso del punto final para moderar el contenido. No generado con la API de OpenAI. En un caso, la empresa NGL, una plataforma de mensajería anónima centrada en la seguridad, utiliza el punto final de moderación para detectar lenguaje de odio e intimidación en su aplicación. NGL señala que estos clasificadores pueden generalizar a la jerga más reciente, lo que los hace más seguros con el tiempo. El uso del extremo de moderación para monitorear el tráfico que no es de API está en versión beta privada y es de pago. Si está interesado, póngase en contacto con nosotros en support@openai.com.
Comience con el punto final de moderación consultando la documentación. Consulte nuestro documento para obtener más detalles sobre el proceso de capacitación y el rendimiento del modelo. También hemos publicado un conjunto de datos de evaluación que contiene datos de rastreo comunes marcados en estas categorías, que esperamos estimule más investigaciones en esta área.
[ad_2]