[ad_1]
(Noticias de Nanowerk) Estamos en una era increíble en la que incluso los dispositivos con pocos recursos, como los sensores de Internet de las cosas (IoT), pueden usar algoritmos de aprendizaje profundo para resolver problemas complejos como la clasificación de imágenes o el procesamiento del lenguaje natural (la rama de la inteligencia artificial que se ocupa de ello) para permitir que las computadoras entiendan el lenguaje hablado y escrito de la misma manera que los humanos).
Sin embargo, es posible que el aprendizaje profundo en los sensores de IoT no pueda garantizar los requisitos de calidad de servicio (QoS), como la precisión de la inferencia y la latencia. Con el crecimiento exponencial de los datos recopilados de miles de millones de dispositivos IoT, ha surgido la necesidad de pasar a un modelo distribuido, donde parte del procesamiento de datos ocurre en el borde de la red (computación de borde), más cerca de donde se crean los datos. que enviarlo a la nube para su procesamiento y almacenamiento.
Los investigadores de IMDEA Networks Andrea Fresa (estudiante de doctorado) y Jaya Prakash Champati (profesor asistente de investigación) realizaron un estudio en el que presentaron el algoritmo AMR2Aprovecha la infraestructura informática perimetral (procesamiento, análisis y almacenamiento de datos más cerca de donde se generan para permitir un análisis más rápido y una respuesta casi en tiempo real) para aumentar la precisión de inferencia de los sensores de IoT respetando las limitaciones de latencia, y ha demostrado que el problema existe está resuelto.
El documento se publicó esta semana en la conferencia MSWiM (An Offloading Algorithm for Maximizing Inference Accuracy on Edge Device in an Edge Intelligence System).
Para entender qué es la inferencia, primero debemos explicar que el aprendizaje automático funciona en dos fases principales. El primero se relaciona con la capacitación, cuando el desarrollador alimenta su modelo con un conjunto de datos seleccionados para que pueda «aprender» todo lo que necesita saber sobre el tipo de datos que se analizarán. La siguiente fase es la inferencia: el modelo puede hacer predicciones basadas en datos del mundo real para producir resultados procesables.
En su publicación, los investigadores concluyen que la precisión de la inferencia ha aumentado hasta en un 40% al comparar AMR2 Algoritmo con técnicas básicas de programación. También descubrieron que un algoritmo de programación eficiente es esencial para respaldar adecuadamente los algoritmos de aprendizaje automático en el perímetro.
“Los resultados de nuestro estudio podrían ser extremadamente útiles para las aplicaciones de aprendizaje automático (ML) que requieren una inferencia rápida y precisa en los dispositivos finales. Por ejemplo, piense en un servicio como Google Photos que categoriza los elementos de la imagen. Podemos garantizar el retraso en la ejecución con el AMR2Algoritmo que puede ser muy fructífero para un desarrollador que puede usarlo en el diseño para asegurarse de que los retrasos no sean visibles para el usuario”, explica Andrea Fresa.
El principal obstáculo que encontraron al realizar este estudio es demostrar el rendimiento teórico del AMR.2 Algoritmo y validarlo con un banco de pruebas experimental que consta de una Raspberry Pi y un servidor conectado a través de una LAN. “Para mostrar los límites de rendimiento de AMR2usamos ideas básicas de la programación lineal y herramientas de la investigación de operaciones”, enfatiza Fresa.
Sin embargo, con este trabajo, los investigadores de IMDEA Networks han sentado las bases para futuras investigaciones que permitirán que las aplicaciones de aprendizaje automático (ML) se ejecuten de forma rápida y precisa en el borde de la red.
[ad_2]