[ad_1]
Exploramos el uso de LLM para abordar estos desafíos. Nuestros grandes modelos de lenguaje, como GPT-4, pueden comprender y generar lenguaje natural y, por lo tanto, son aplicables para la moderación de contenido. Los modelos pueden emitir juicios de moderación basándose en las directrices de política que se les proporcionan.
Este sistema acorta el proceso de desarrollo y personalización de políticas de contenido de meses a horas.
- Una vez que se redacta una política, los expertos en políticas pueden crear un conjunto de datos de oro identificando una pequeña cantidad de ejemplos y asignándoles etiquetas de acuerdo con la política.
- Luego, GPT-4 lee la política y asigna etiquetas al mismo conjunto de datos sin ver las respuestas.
- Al examinar las discrepancias entre los juicios de GPT-4 y los de un ser humano, los expertos en políticas pueden pedirle a GPT-4 que justifique sus etiquetas, analice la ambigüedad en las definiciones de políticas, resuelva la confusión y, en consecuencia, proporcione más aclaraciones sobre la política que se llevará a cabo. . Podemos repetir los pasos 2 y 3 hasta que estemos satisfechos con la calidad de la póliza.
Este proceso iterativo da como resultado políticas de contenido refinadas que se traducen en clasificadores, lo que permite la implementación de políticas y la moderación de contenido a escala.
Para procesar grandes cantidades de datos a escala, opcionalmente podemos utilizar las predicciones de GPT-4 para refinar un modelo mucho más pequeño.
[ad_2]