[ad_1]
Nadie sabe si la inteligencia artificial será una bendición o una maldición en un futuro lejano. Pero en este momento existe un malestar y un desprecio casi universal por un hábito de estos chatbots y agentes: las alucinaciones, esos hechos inventados que aparecen en la producción de grandes modelos de lenguaje como ChatGPT. En medio de lo que parece ser una respuesta cuidadosamente construida, el LLM inserta algo que parece razonable pero que es una completa invención. Un chatbot típico puede hacer que el excongresista caído en desgracia George Santos se parezca a Abe Lincoln. Como parece inevitable que los chatbots algún día produzcan la mayor parte de toda la prosa jamás escrita, todas las empresas de inteligencia artificial están obsesionadas con minimizar y eliminar las alucinaciones, o al menos convencer al mundo de que el problema existe.
Obviamente, el valor de los LLM alcanzará nuevos niveles a medida que las alucinaciones se acerquen a cero. Pero antes de que eso suceda, les pido que brinden por los inventos de la IA.
Las alucinaciones me fascinan, aunque los científicos de inteligencia artificial tienen una idea bastante clara de por qué ocurren. Una startup de inteligencia artificial llamada Vectara los ha estudiado y su prevalencia, incluso recopilando las tasas de alucinaciones de varios modelos cuando se les pidió que resumieran un documento. (El GPT-4 de OpenAI funciona mejor, alucinando sólo alrededor del 3 por ciento de las veces; el ahora obsoleto Palm Chat de Google—¡no su chatbot Bard!—tuvo una sorprendente tasa del 27 por ciento, aunque, para ser justos, resumiendo que Documentos no estaba en La timonera de Palm Chat.) Amin Ahmad, CTO de Vectara, dice que los LLM crean una representación comprimida de todos los datos de entrenamiento alimentados a través de las neuronas artificiales. «La naturaleza de la compresión significa que se pueden perder detalles finos», afirma. Al final, un modelo tiene las respuestas más probables a las consultas de los usuarios, pero no tiene los hechos exactos. «Cuando se trata de detalles, empiezas a inventar cosas», dice.
Santosh Vempala, profesor de informática en Georgia Tech, también ha estudiado las alucinaciones. «Un modelo de lenguaje es sólo un modelo probabilístico del mundo», dice, no un reflejo veraz de la realidad. Vempala explica que la respuesta de un LLM busca una calibración general con el mundo real, tal como se representa en sus datos de entrenamiento, lo que representa «una versión débil de precisión». Su investigación, publicada con Adam Kalai de OpenAI, encontró que las alucinaciones son inevitables cuando hay hechos que no pueden verificarse a partir de la información de los datos de entrenamiento de un modelo.
Esa es la ciencia/matemática de las alucinaciones de la IA, pero también son notables por la experiencia que pueden crear en los humanos. A veces, estas invenciones generativas pueden parecer más plausibles que los hechos reales, que a menudo son sorprendentemente extraños e insatisfactorios. ¿Con qué frecuencia escuchas algo descrito de manera tan extraña que ningún guionista se atrevería a convertirlo en una película? ¡Hoy en día, todo el tiempo! Las alucinaciones pueden seducirnos aparentemente transportándonos a un mundo menos impactante que aquel en el que realmente vivimos. Además, me resulta revelador observar qué detalles les gusta inventar a los robots. En su intento desesperado por llenar los vacíos de una narrativa satisfactoria, gravitan hacia la versión estadísticamente más probable de la realidad representada en sus datos de entrenamiento a escala de Internet, que puede ser una verdad en sí misma. Lo comparo con un novelista que escribe una novela inspirada en hechos reales. Un buen escritor se desvía de lo que realmente sucedió hacia un escenario imaginario que revela una verdad más profunda y se esfuerza por crear algo más real que la realidad.
Cuando le pedí a ChatGPT que escribiera un obituario para mí (admítelo, tú también lo intentaste), hizo muchas cosas bien, pero algunas mal. Me dio nietos que no tenía, me dio una fecha de nacimiento más temprana y añadió un Premio Nacional de Revista a mi currículum por artículos que no escribí sobre la crisis de las puntocom a finales de los años 1990. En la evaluación de mi vida que hizo el LLM, esto es algo que debería Sucedió debido a los hechos de mi carrera. ¡Estoy de acuerdo! Es sólo por la imperfección de la vida real que la Sociedad Estadounidense de Editores de Revistas no me entregó la escultura de elefante de metal asociada con este honor. Después de casi 50 años escribiendo revistas, ¡eso depende de ellos, no de mí! Es casi como si ChatGPT hubiera realizado un estudio de posibles multiversos y hubiera descubierto que tenía un premio Ellie en la mayoría de ellos. Ciertamente hubiera preferido que jueces humanos me llamaran al podio aquí en mi propio rincón del multiverso. Pero la detección mediante una red neuronal artificial vampírica es mejor que nada.
[ad_2]