[ad_1]
Si bien trabajos recientes sobre generación de objetos textuales 3D han mostrado resultados prometedores, los métodos de última generación suelen requerir varias horas de GPU para producir un solo ejemplo. Esto contrasta marcadamente con los modelos de imágenes generativas de última generación que generan muestras en unos pocos segundos o minutos. En este artículo, exploramos un método alternativo para la generación de objetos 3D que crea modelos 3D en solo 1 o 2 minutos en una sola GPU. Nuestro método primero genera una única vista sintética utilizando un modelo de difusión de texto a imagen y luego crea una nube de puntos 3D utilizando un segundo modelo de difusión basado en la imagen generada. Si bien nuestro método aún está por detrás del estado del arte en términos de calidad de la muestra, el muestreo es uno o dos órdenes de magnitud más rápido, lo cual es una compensación práctica para algunos casos de uso. Publicamos nuestros modelos de difusión de nubes de puntos previamente entrenados y códigos y modelos de evaluación en esta URL https.
[ad_2]