[ad_1]
(Noticias de Nanowerk) El lugar de la inteligencia artificial (IA) en nuestra vida cotidiana está aumentando y muchos investigadores creen que lo que hemos visto hasta ahora es solo el comienzo. Sin embargo, la IA debe ser confiable en todas las situaciones. La Universidad de Linköping está coordinando TAILOR, un proyecto de la UE que ha creado una hoja de ruta basada en la investigación para guiar a los financiadores de la investigación y a los responsables de la toma de decisiones hacia la IA confiable del futuro.
“El desarrollo de la inteligencia artificial aún está en pañales. Si miramos hacia atrás 50 años de lo que estamos haciendo hoy, lo encontraremos bastante primitivo. En otras palabras, la mayor parte del campo aún no se ha descubierto. Por lo tanto, es importante sentar las bases para una IA confiable ahora”, dice Fredrik Heintz, profesor de Inteligencia Artificial en LiU y coordinador del proyecto TAILOR.
TAILOR es una de las seis redes de investigación creadas por la UE para fortalecer las capacidades de investigación y desarrollar la IA del futuro. TAILOR sienta las bases para una IA confiable al crear un marco, pautas y especificaciones de las necesidades de la comunidad de investigación de IA. «TAILOR» es un acrónimo de Foundations of Trustworthy AI: integración, aprendizaje, optimización y razonamiento.
La hoja de ruta que ahora presenta TAILOR es el primer paso en el camino hacia la estandarización, en el que los responsables de la toma de decisiones y los financiadores de la investigación deben obtener una idea de lo que se requiere para el desarrollo de una IA confiable. Fredrik Heintz cree que es una buena idea mostrar que muchos problemas de investigación deben resolverse antes de que esto se pueda lograr.
Los investigadores definieron tres criterios para una IA confiable: debe cumplir con las leyes y regulaciones, debe adherirse a varios principios éticos y su implementación debe ser sólida y segura. Fredrik Heintz señala que estos criterios representan grandes desafíos, especialmente la implementación de los principios éticos.
“Tomemos el poder judicial, por ejemplo. ¿Significa esto que los recursos se comparten por igual o que todos los actores reciben los recursos necesarios para llevarlos a todos al mismo nivel? Nos enfrentamos a grandes preguntas a largo plazo, y llevará tiempo responderlas. Recuerde: la definición de justicia ha sido debatida por filósofos y académicos durante cientos de años”, dice Fredrik Heintz.
El proyecto se centrará en preguntas de investigación amplias e integrales y buscará encontrar estándares que cualquier persona que trabaje con IA pueda adoptar. Pero Fredrik Heintz está convencido de que solo podemos lograrlo si se da prioridad a la investigación básica sobre IA.
“La gente a menudo piensa en la IA como un problema tecnológico, pero lo que realmente importa es si obtenemos un beneficio social de ella. Si queremos obtener una IA en la que se pueda confiar y que funcione bien en la sociedad, debemos asegurarnos de que esté centrada en el ser humano», dice Fredrik Heintz.
Muchas de las propuestas legales redactadas en la UE y sus estados miembros están redactadas por profesionales del derecho. Sin embargo, Fredrik Heintz cree que carecen de conocimientos expertos en IA, lo cual es un problema.
“La legislación y las normas deben basarse en el conocimiento. Aquí los investigadores podemos hacer nuestro aporte, informar sobre el estado actual de la investigación y posibilitar decisiones fundamentadas. Es importante que los expertos tengan la oportunidad de influir en estas preguntas”, dice Fredrik Heintz.
[ad_2]