[ad_1]
A medida que mejoran los modelos de lenguaje generativo, se abren nuevas posibilidades en áreas tan diversas como la atención sanitaria, el derecho, la educación y la ciencia. Pero como ocurre con cualquier tecnología nueva, vale la pena pensar en cómo se puede utilizar incorrectamente. En el contexto de las recurrentes operaciones de influencia en línea –oculto o engañoso Esfuerzos para influir en la opinión de un grupo objetivo: el documento pregunta:
¿Cómo podrían los modelos lingüísticos afectar las operaciones y qué medidas se pueden tomar para mitigar esta amenaza?
Nuestro trabajo reunió diversos orígenes y experiencia (investigadores con conocimiento de las tácticas, técnicas y procedimientos de las campañas de desinformación en línea, así como expertos en aprendizaje automático en el campo de la inteligencia artificial generativa) para basar nuestro análisis en las tendencias en ambas áreas.
Creemos que es fundamental analizar la amenaza de las operaciones de influencia impulsadas por IA y delinear los posibles pasos. Antes Los modelos de lenguaje se utilizan para operaciones de influencia a escala. Esperamos que nuestra investigación informe a los formuladores de políticas que son nuevos en la IA o la desinformación y estimule una investigación en profundidad sobre posibles estrategias de mitigación para los desarrolladores de IA, los formuladores de políticas y los investigadores de la desinformación.
[ad_2]