[ad_1]
(noticias nanowerk) Un vistazo rápido a los titulares hace que parezca que la inteligencia artificial generativa está en todas partes estos días. De hecho, es posible que algunos de estos titulares hayan sido escritos por IA generativa, como ChatGPT de OpenAI, un chatbot que ha demostrado una asombrosa habilidad para producir texto que parece haber sido escrito por un humano.
Pero, ¿qué quiere decir realmente la gente cuando dice «IA generativa»?
Antes del auge de la IA generativa en los últimos años, cuando la gente hablaba de IA, normalmente se refería a modelos de aprendizaje automático que pueden aprender a hacer una predicción basada en datos. Estos modelos se entrenan con millones de ejemplos, por ejemplo, para predecir si una radiografía particular muestra signos de un tumor o si es probable que un prestatario en particular no pague un préstamo.
La IA generativa puede considerarse como un modelo de aprendizaje automático entrenado para crear nuevos datos en lugar de hacer una predicción sobre un conjunto de datos específico. Un sistema de IA generativa es aquel que aprende a generar más objetos similares a los datos con los que fue entrenado.
“Cuando se trata de la maquinaria real que subyace a la IA generativa y otros tipos de IA, las diferencias pueden volverse algo borrosas. A menudo se pueden utilizar los mismos algoritmos para ambos”, afirma Phillip Isola, profesor asociado de ingeniería eléctrica e informática en el MIT y miembro del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL).
Y a pesar del revuelo que acompañó al lanzamiento de ChatGPT y sus homólogos, la tecnología en sí no es del todo nueva. Estos potentes modelos de aprendizaje automático se basan en investigaciones y avances computacionales que se remontan a más de 50 años.
![IA generativa](https://www.nanowerk.com/news2/robotics/id64024_1.jpg)
Un aumento de la complejidad
Un ejemplo temprano de IA generativa es un modelo mucho más simple llamado cadena de Markov. La técnica lleva el nombre de Andrey Markov, un matemático ruso que introdujo este método estadístico para modelar el comportamiento de procesos aleatorios en 1906. En el aprendizaje automático, los modelos de Markov se han utilizado durante mucho tiempo para tareas de predicción de la siguiente palabra, como la función de autocompletar en un programa de correo electrónico.
En la predicción de texto, un modelo de Markov genera la siguiente palabra de una oración mirando la palabra anterior o algunas palabras anteriores. Pero debido a que estos modelos simples solo pueden mirar hacia atrás hasta cierto punto, no son buenos para generar texto plausible, dice Tommi Jaakkola, Profesor Thomas Siebel de Ingeniería Eléctrica y Ciencias de la Computación en el MIT, quien también es miembro de CSAIL y del Instituto de Datos. , Sistemas y Sociedad (IDSS).
«Hemos estado generando cosas desde mucho antes de la última década, pero la mayor diferencia aquí es la complejidad de los objetos que podemos generar y la escala a la que podemos entrenar estos modelos», explica.
Hace apenas unos años, los investigadores tendían a centrarse en encontrar un algoritmo de aprendizaje automático que hiciera un uso óptimo de un conjunto de datos determinado. Pero ese enfoque ha cambiado un poco, y muchos investigadores ahora están utilizando conjuntos de datos más grandes, quizás con cientos de millones o incluso miles de millones de puntos de datos, para entrenar modelos que puedan producir resultados impresionantes.
Los modelos básicos subyacentes a ChatGPT y sistemas similares funcionan de manera muy similar al modelo de Markov. Sin embargo, una gran diferencia es que ChatGPT es mucho más grande y complejo, con miles de millones de parámetros. Y se basó en una enorme cantidad de datos (en este caso, gran parte del texto disponible públicamente en Internet).
En este enorme corpus de texto, las palabras y oraciones aparecen en secuencias con ciertas dependencias. Esta repetición ayuda al modelo a comprender cómo dividir el texto en fragmentos estadísticos que tengan cierta previsibilidad. Aprende los patrones de estos bloques de texto y utiliza ese conocimiento para hacer sugerencias sobre lo que podría venir a continuación.
Arquitecturas más potentes
Si bien conjuntos de datos más grandes son un catalizador para el auge de la IA generativa, varios avances importantes en la investigación también han dado lugar a arquitecturas de aprendizaje profundo más complejas.
En 2014, investigadores de la Universidad de Montreal propusieron una arquitectura de aprendizaje automático conocida como Generative Adversarial Network (GAN). Las GAN utilizan dos modelos que funcionan juntos: uno aprende a generar una salida objetivo (por ejemplo, una imagen) y el otro aprende a distinguir los datos reales de la salida del generador. El generador intenta engañar al discriminador y aprende a producir resultados más realistas. El generador de imágenes StyleGAN se basa en dichos modelos.
Los modelos de difusión fueron introducidos un año después por investigadores de la Universidad de Stanford y la Universidad de California en Berkeley. Al refinar iterativamente su salida, estos modelos aprenden a generar nuevas muestras de datos que se asemejan a muestras en un conjunto de datos de entrenamiento y se han utilizado para crear imágenes de apariencia realista. Un modelo de difusión es el núcleo del sistema de generación de texto a imagen de Stable Diffusion.
En 2017, investigadores de Google introdujeron la arquitectura Transformer, que se utilizó para desarrollar grandes modelos de lenguaje como los que subyacen a ChatGPT. En el procesamiento del lenguaje natural, un transformador codifica cada palabra en un corpus de texto como un token y luego genera un mapa de atención que captura las relaciones de cada token con todos los demás tokens. Este mapa de atención ayuda al transformador a comprender el contexto al generar texto nuevo.
Estos son sólo algunos de los muchos enfoques que se pueden utilizar para la IA generativa.
Una gama de aplicaciones
Lo que todos estos enfoques tienen en común es que convierten las entradas en una serie de tokens, que son representaciones numéricas de bloques de datos. Siempre que sus datos se puedan convertir a este formato de token estándar, en teoría podría utilizar estos métodos para generar nuevos datos que parezcan similares.
«Su kilometraje puede variar dependiendo de qué tan ruidosos sean sus datos y qué tan difícil sea extraer la señal, pero realmente se acerca a la forma en que una CPU de uso general puede tomar cualquier tipo de datos y procesarlos de manera consistente», dice Isola.
Esto abre una amplia gama de aplicaciones para la IA generativa.
El grupo de Isola, por ejemplo, utiliza IA generativa para crear datos de imágenes sintéticas que podrían usarse para entrenar otro sistema inteligente, por ejemplo, enseñando a un modelo de visión por computadora a reconocer objetos.
El grupo de Jaakkola utiliza IA generativa para diseñar estructuras proteicas novedosas o estructuras cristalinas válidas que especifiquen nuevos materiales. De la misma manera que un modelo generativo aprende las dependencias del lenguaje, si en su lugar se le muestran estructuras cristalinas, puede aprender las relaciones que hacen que las estructuras sean estables y viables, explica.
Aunque los modelos generativos pueden lograr resultados increíbles, no son la mejor opción para todos los tipos de datos. Para tareas que implican hacer predicciones sobre datos estructurados como los datos tabulares en una hoja de cálculo, los modelos de IA generativa tienden a ser superados por los métodos tradicionales de aprendizaje automático, dice Devavrat Shah, profesor Andrew y Erna Viterbi de Ingeniería Eléctrica e Informática en el MIT y profesor Miembro del IDSS y del Laboratorio de Sistemas de Información y Decisión.
“En mi opinión, el mayor valor que tienen es crear esta excelente interfaz para las máquinas que sea fácil de usar. En el pasado, la gente tenía que hablar con las máquinas en el lenguaje de las máquinas para marcar la diferencia. Ahora esta interfaz ha descubierto cómo comunicarse tanto con humanos como con máquinas”, afirma Shah.
Se están levantando banderas rojas
Los chatbots de IA generativa se utilizan ahora en los centros de llamadas para responder preguntas de clientes humanos. Sin embargo, esta aplicación destaca una posible señal de alerta al implementar estos modelos: el desplazamiento de trabajadores.
Además, la IA generativa puede heredar y reforzar los sesgos existentes en los datos de entrenamiento o amplificar el discurso de odio y las declaraciones falsas. Los modelos tienen la capacidad de plagiar y pueden generar contenido que parece haber sido creado por un creador humano específico, lo que plantea posibles problemas de derechos de autor.
Por otro lado, Shah sugiere que la IA generativa podría empoderar a los artistas que podrían utilizar herramientas generativas para ayudarles a crear contenido creativo que de otro modo no tendrían los medios para producir.
En el futuro, ve que la IA generativa cambiará la economía en muchas disciplinas.
Una dirección futura prometedora que Isola ve para la IA generativa es su uso en la fabricación. En lugar de pedirle a un modelo que tome una fotografía de una silla, tal vez podrían crear un plano para una silla que podría producirse.
También ve posibles usos futuros de los sistemas de IA generativa en el desarrollo de agentes de IA inteligentes en general.
“Existen diferencias en cómo funcionan estos modelos y cómo funciona el cerebro humano, pero creo que también hay similitudes. Tenemos la capacidad de pensar y soñar mentalmente, proponer ideas o planes interesantes, y creo que la IA generativa es una de las herramientas que permitirá a los agentes hacer eso también”, afirma Isola.
[ad_2]