[ad_1]
Armas biológicas mortales, ataques automatizados a la ciberseguridad, potentes modelos de IA que escapan al control humano. Estas son sólo algunas de las amenazas potenciales que plantea la inteligencia artificial, según un nuevo informe del gobierno del Reino Unido. Se publicó para establecer la agenda de una cumbre internacional sobre seguridad de la IA que se celebrará en el Reino Unido la próxima semana. El informe se compiló con aportaciones de empresas líderes en inteligencia artificial, como la división DeepMind de Google y varias agencias gubernamentales del Reino Unido, incluidas agencias de inteligencia.
Joe White, enviado de tecnología de Gran Bretaña a Estados Unidos, dice que la cumbre ofrece una oportunidad para reunir a países y empresas líderes en inteligencia artificial para comprender mejor los riesgos que plantea la tecnología. Abordar las posibles desventajas de los algoritmos requiere una colaboración orgánica a la antigua, dice White, quien ayudó a planificar la cumbre de la próxima semana. «Estos no son desafíos entre máquinas y humanos», dice White. «Estos son desafíos de persona a persona».
El primer ministro británico, Rishi Sunak, pronunciará un discurso mañana en el que, si bien la IA ofrece oportunidades para hacer avanzar a la humanidad, es importante ser honesto acerca de los nuevos riesgos que plantea para las generaciones futuras.
La Cumbre de Seguridad de la IA del Reino Unido se llevará a cabo los días 1 y 2 de noviembre y se centrará principalmente en las formas en que los humanos pueden hacer mal uso o perder el control de formas avanzadas de IA. Algunos expertos y líderes en IA del Reino Unido criticaron el enfoque del evento y dijeron que el gobierno debería priorizar las preocupaciones a corto plazo, como ayudar al Reino Unido a competir con líderes mundiales en IA como Estados Unidos y China.
Algunos expertos en IA han advertido que el reciente aumento del debate sobre escenarios lejanos de la IA, incluida la posibilidad de extinción humana, podría distraer a los reguladores y al público de problemas más inmediatos, como los algoritmos sesgados o la IA que empodera a empresas que ya son dominantes.
El informe del Reino Unido publicado hoy analiza las implicaciones para la seguridad nacional de los grandes modelos lingüísticos, la tecnología de inteligencia artificial detrás de ChatGPT. White dice que las agencias de inteligencia británicas están trabajando con el Frontier AI Task Force, un grupo de expertos del gobierno británico, para estudiar escenarios como lo que podría suceder si los malos actores combinaran un gran modelo lingüístico con documentos secretos del gobierno. Una posibilidad sombría discutida en el informe sugiere que un modelo de lenguaje amplio que acelere el descubrimiento científico también podría impulsar proyectos de desarrollo de armas biológicas.
En julio de este año, Dario Amodei, director ejecutivo de la startup de inteligencia artificial Anthropic, dijo a los miembros del Senado de los EE. UU. que dentro de los próximos dos o tres años podría ser posible que un modelo de lenguaje sugiera cómo se llevan a cabo los ataques con armas biológicas a gran escala. Pero White dice que el informe es un documento de alto nivel que no pretende servir como «una lista de compras de todas las cosas malas que se pueden hacer».
El informe británico también analiza cómo la IA podría escapar del control humano. A medida que la gente se acostumbra a dejar que los algoritmos tomen decisiones importantes, «se vuelve cada vez más difícil para las personas recuperar el control», dice el informe. Pero «la probabilidad de que se produzcan estos riesgos sigue siendo controvertida: muchos expertos consideran que la probabilidad es muy baja y algunos argumentan que centrarse en el riesgo distrae la atención de los daños actuales».
Además de agencias gubernamentales, el informe publicado hoy fue revisado por un panel que incluyó expertos en políticas y ética del laboratorio de inteligencia artificial DeepMind de Google, que comenzó como una startup de inteligencia artificial en Londres y fue adquirida por la firma de búsqueda en 2014, y Hugging Face, una empresa en desarrollo. Empresa Inicio de software de IA de código abierto.
También se consultó a Yoshua Bengio, uno de los tres “padrinos de la IA”, que ganó el Premio Turing, el más alto honor en informática por técnicas de aprendizaje automático fundamentales para el actual auge de la IA. Bengio dijo recientemente que su optimismo sobre la tecnología que promovía se había desvanecido y que se necesitaba una nueva organización para «defender a la humanidad» para mantener la IA bajo control.
[ad_2]