[ad_1]
(Noticias de Nanowerk) Un equipo del Laboratorio Nacional de Los Álamos ha desarrollado un enfoque novedoso para comparar redes neuronales que mira dentro de la «caja negra» de la inteligencia artificial para ayudar a los investigadores a comprender cómo se comportan las redes neuronales. Las redes neuronales reconocen patrones en conjuntos de datos; Se utilizan en toda la sociedad, en aplicaciones como asistentes virtuales, sistemas de reconocimiento facial y vehículos autónomos.
“La comunidad de investigación de inteligencia artificial no necesariamente tiene una comprensión completa de lo que hacen las redes neuronales; Nos están dando buenos resultados, pero no sabemos cómo ni por qué”, dijo Haydn Jones, investigador del grupo de Investigación Avanzada en Sistemas Cibernéticos de Los Álamos. «Nuestro nuevo método compara mejor las redes neuronales, lo cual es un paso crucial hacia una mejor comprensión de las matemáticas detrás de la IA».
Jones es el autor principal del artículo Si ha entrenado a uno, los ha capacitado a todos: la similitud entre arquitecturas aumenta con la robustez, presentado recientemente en la Conferencia sobre la incertidumbre en la inteligencia artificial. Además de examinar la similitud de la red, el documento es un paso crucial hacia la caracterización del comportamiento de las redes neuronales robustas.
![Una mirada a la caja negra de las redes neuronales](https://www.nanowerk.com/news2/robotics/id61452_1.jpg)
Las redes neuronales son poderosas, pero frágiles. Por ejemplo, los automóviles autónomos utilizan redes neuronales para reconocer caracteres. Cuando las condiciones son ideales, lo hacen bastante bien. Sin embargo, la más mínima desviación, como una pegatina en una señal de alto, puede hacer que la red neuronal identifique erróneamente la señal y nunca se detenga.
Para mejorar las redes neuronales, los investigadores están buscando formas de mejorar la solidez de la red. Un enfoque de última generación consiste en «atacar» las redes durante su proceso de formación. Los investigadores introducen desviaciones intencionalmente y entrenan a la IA para que las ignore. Este proceso se llama entrenamiento contradictorio y esencialmente hace que sea más difícil engañar a las redes.
Jones, los colaboradores de Los Alamos, Jacob Springer y Garrett Kenyon, y el mentor de Jones, Juston Moore, aplicaron su nueva métrica de similitud de red a redes neuronales entrenadas por adversarios y, sorprendentemente, descubrieron que el entrenamiento por adversarios hace que las redes neuronales en el dominio de la visión computacional converjan representaciones de datos muy similares, independientemente de la arquitectura de la red, a medida que aumenta la escala del ataque.
«Descubrimos que cuando entrenamos las redes neuronales para que sean robustas contra los ataques de los adversarios, comienzan a hacer las mismas cosas», dijo Jones.
Se han realizado grandes esfuerzos en la industria y la comunidad académica para buscar la «arquitectura correcta» para las redes neuronales, pero los resultados del equipo de Los Álamos muestran que la introducción del entrenamiento contradictorio reduce significativamente este espacio de búsqueda. Como resultado, es posible que la comunidad de investigación de IA no necesite dedicar tanto tiempo a la investigación de nuevas arquitecturas, sabiendo que el entrenamiento contradictorio dará como resultado que diferentes arquitecturas converjan hacia soluciones similares.
“Al notar que las redes neuronales robustas son similares entre sí, facilitamos la comprensión de cómo podría funcionar realmente la IA robusta. Incluso podríamos encontrar pistas sobre cómo funciona la cognición en humanos y otros animales», dijo Jones.
[ad_2]