[ad_1]
durante una década Hoy en día, muchos de los sistemas de inteligencia artificial más impresionantes se han enseñado utilizando una gran cantidad de datos etiquetados. Por ejemplo, una imagen podría etiquetarse como «gato atigrado» o «gato tigre» para «entrenar» una red neuronal artificial para distinguir correctamente un gato atigrado de un tigre. La estrategia ha sido espectacularmente exitosa y lamentablemente defectuosa.
Tal entrenamiento «supervisado» requiere datos cuidadosamente etiquetados por humanos, y las redes neuronales a menudo toman atajos y aprenden a asociar las etiquetas con información mínima y, a veces, superficial. Por ejemplo, una red neuronal podría utilizar la presencia de hierba para reconocer una foto de una vaca, ya que las vacas suelen fotografiarse en los campos.
“Estamos desarrollando una generación de algoritmos que son como estudiantes [who] No he venido a clase en todo el semestre y están abarrotando la noche antes de la graduación», dijo Alexei Efros, científico informático de la Universidad de California, Berkeley. «Realmente no aprenden el material, pero les va bien en el examen».
Además, para los investigadores interesados en la intersección de la inteligencia animal y artificial, este «aprendizaje supervisado» puede ser limitado en términos de lo que puede revelar sobre los cerebros biológicos. Los animales, incluidos los humanos, no utilizan conjuntos de datos etiquetados para el aprendizaje. Explorarás el entorno en gran parte por tu cuenta, obteniendo una comprensión rica y sólida del mundo a lo largo del camino.
Ahora, algunos neurocientíficos computacionales han comenzado a explorar redes neuronales entrenadas con pocos o ningún dato etiquetado por humanos. Estos algoritmos de «aprendizaje autosupervisado» han demostrado tener un gran éxito en el modelado del lenguaje humano y, más recientemente, en el reconocimiento de imágenes. En un trabajo reciente, los modelos informáticos de los sistemas visuales y auditivos de los mamíferos creados utilizando modelos de aprendizaje autosupervisados han mostrado una coincidencia más cercana con la función cerebral que sus contrapartes de aprendizaje supervisado. A algunos neurocientíficos les parece que las redes artificiales están comenzando a revelar algunos de los métodos reales que usa nuestro cerebro para aprender.
Supervisión defectuosa
Los modelos cerebrales inspirados en redes neuronales artificiales alcanzaron la mayoría de edad hace unos 10 años, casi al mismo tiempo que una red neuronal llamada AlexNet revolucionó la tarea de clasificar imágenes desconocidas. Esta red, como todas las redes neuronales, constaba de capas de neuronas artificiales, unidades informáticas que realizan conexiones que pueden variar en fuerza o «peso» entre sí. Cuando una red neuronal clasifica erróneamente una imagen, el algoritmo de aprendizaje actualiza los pesos de las conexiones entre las neuronas para hacer que esa clasificación errónea sea menos probable en la siguiente ronda de entrenamiento. El algoritmo repite este proceso muchas veces con todas las imágenes de entrenamiento, ajustando los pesos hasta que la tasa de error de la red sea aceptablemente baja.
Alexei Efros, científico informático de la Universidad de California, Berkeley, cree que la mayoría de los sistemas de inteligencia artificial modernos dependen demasiado de etiquetas hechas por humanos. «Realmente no aprenden el material», dijo.Cortesía de Alexei Efros
Casi al mismo tiempo, los neurocientíficos desarrollaron los primeros modelos informáticos del sistema visual de los primates, utilizando redes neuronales como AlexNet y sus sucesores. La unión parecía prometedora: por ejemplo, cuando a los monos y las redes neuronales artificiales se les mostraron las mismas imágenes, la actividad de las neuronas reales y las neuronas artificiales mostró una coincidencia intrigante. Siguieron modelos artificiales de reconocimiento auditivo y olfativo.
Pero a medida que el campo evolucionó, los investigadores se dieron cuenta de las limitaciones del entrenamiento supervisado. Por ejemplo, en 2017, Leon Gatys, entonces científico informático de la Universidad de Tübingen en Alemania, y sus colegas tomaron una fotografía de un Ford Modelo T, luego superpusieron un estampado de leopardo sobre la foto, creando una imagen extraña pero fácilmente reconocible. Una importante red neuronal artificial clasificó correctamente la imagen original como un modelo T, pero consideró que la imagen modificada era un leopardo. Estaba obsesionado con la textura y no entendía la forma de un automóvil (o un leopardo, para el caso).
Las estrategias de aprendizaje autosupervisado están diseñadas para evitar tales problemas. Con este enfoque, los humanos no etiquetan los datos. Más bien, «las etiquetas provienen de los datos mismos», dice Friedemann Zenke, neurocientífico computacional del Instituto Friedrich Miescher para la Investigación Biomédica en Basilea, Suiza. Los algoritmos autosupervisados esencialmente crean brechas en los datos y le piden a la red neuronal que las llene. Por ejemplo, en el llamado modelo de lenguaje grande, el algoritmo de entrenamiento muestra a la red neuronal las primeras palabras de una oración y le pide que prediga la siguiente palabra. Cuando se entrena con un vasto corpus de texto de Internet, el modelo parece estar aprendiendo la estructura sintáctica del idioma y demuestra habilidades lingüísticas impresionantes, todo sin etiquetas externas ni supervisión.
[ad_2]