Este artículo explora el hallazgo de que los modelos de lenguaje grandes (LLM) entrenados para generar código pueden mejorar significativamente la efectividad de los operadores de mutación aplicados a programas de programación genética (GP). Debido a que dichos LLM se benefician de datos de capacitación que incluyen cambios y modificaciones secuenciales, pueden aproximarse a los cambios probables que harían los humanos. Para resaltar la amplitud de las implicaciones de una evolución de modelo tan grande (ELM), ELM combinado con MAP-Elites en el experimento principal genera cientos de miles de ejemplos funcionales de programas Python que generan robots móviles en funcionamiento en el dominio Sodarace que tenía el LLM original. Nunca lo había visto en el pre-entrenamiento. Luego, estos ejemplos ayudan a iniciar el entrenamiento de un nuevo modelo de lenguaje condicional que puede generar el excursionista correcto para un terreno determinado. La capacidad de iniciar nuevos modelos que puedan generar artefactos apropiados para un contexto determinado en un dominio donde los datos de entrenamiento no estaban disponibles anteriormente tiene implicaciones para la apertura, el aprendizaje profundo y el aprendizaje por refuerzo. Estas implicaciones se examinan en detalle aquí con la esperanza de inspirar nuevas direcciones de investigación que ELM está abriendo ahora.