[ad_1]
Es probable que los sistemas de IA agentes (sistemas de IA que pueden perseguir objetivos complejos con una supervisión directa limitada) sean ampliamente útiles si podemos integrarlos responsablemente en nuestra sociedad. Si bien estos sistemas tienen un potencial significativo para ayudar a las personas a alcanzar sus propios objetivos de manera más eficiente y efectiva, también plantean riesgos de daño. En este documento, proponemos una definición de los sistemas de IA de los agentes y las partes en el ciclo de vida del sistema de IA de los agentes, y enfatizamos la importancia de acordar un conjunto de responsabilidades centrales y mejores prácticas de seguridad para cada una de estas partes. Como nuestra principal contribución, ofrecemos un conjunto inicial de prácticas para hacer que las operaciones de los agentes sean seguras y responsables, y esperamos que puedan servir como pilares para el desarrollo de mejores prácticas básicas acordadas. Enumeramos las preguntas e incertidumbres que rodean la operacionalización de cada una de estas prácticas que deben abordarse antes de que dichas prácticas puedan codificarse. Luego destacamos categorías de impactos indirectos del despliegue a gran escala de sistemas de IA basados en agentes que probablemente requieran marcos de gobernanza adicionales.
[ad_2]