Codex, un modelo de lenguaje grande (LLM) entrenado en una variedad de bases de código, supera el estado del arte anterior en su capacidad para sintetizar y generar código. Aunque Codex ofrece una gran cantidad de ventajas, los modelos que pueden generar código a tal escala tienen limitaciones significativas, problemas de alineación, potencial de abuso y la capacidad de aumentar la tasa de progreso en áreas técnicas que en sí mismas pueden tener efectos desestabilizadores o potencial de abuso. Sin embargo, tales implicaciones de seguridad aún no se conocen o aún no se han investigado. En este artículo, describimos un marco de análisis de amenazas desarrollado en OpenAI para descubrir peligros o riesgos de seguridad que el uso de modelos como Codex puede plantear técnica, social, política y económicamente. El análisis se basa en un marco de evaluación novedoso que determina el rendimiento de técnicas avanzadas de generación de código en función de la complejidad y expresividad de las solicitudes de especificación y su capacidad para comprenderlas y ejecutarlas en relación con las capacidades humanas.