[ad_1]
“Fallé a las dos Pruebas de captcha esta semana. ¿Sigo siendo humano?
—¿Bot o no?
Querido robot,
El comediante John Mulaney tiene algo que decir sobre el absurdo autorreflexivo de los captchas. «Pasas la mayor parte del día diciéndole a un robot que no eres un robot», dice. «Piénsalo durante dos minutos y dime que no quieres ir al océano.» Lo único más deprimente que tener que demostrar tu humanidad a los robots es probablemente no hacerlo.
Sin embargo, esta experiencia se ha vuelto más común a medida que evolucionan las pruebas y los bots diseñados para descalificarlos. Las casillas en las que alguna vez hicimos clic sin pensar se han convertido en pasajes oscuros que se parecen un poco a las evaluaciones imposibles de los cuentos de hadas y los mitos: el enigma de la Esfinge o el troll bajo el puente. En Las aventuras de PinochoEl muñeco de madera sólo es considerado un «niño de verdad» cuando pasa una serie de pruebas morales para demostrar que tiene las cualidades humanas de valentía, confiabilidad y amor desinteresado.
La frase poco conocida y algo ridícula que representa «Captcha» es «Prueba de Turing pública totalmente automatizada para diferenciar las computadoras de los humanos». El ejercicio a veces se denomina prueba de Turing inversa porque la carga de la prueba recae en los humanos. Pero, ¿qué significa demostrar tu humanidad en la era de la IA avanzada? Un artículo publicado por OpenAI a principios de este año que detalla las amenazas potenciales de GPT-4 describe un estudio independiente en el que se le pidió al chatbot que resolviera un captcha. Con un poco de ayuda, GPT-4 logró contratar a un empleado humano de Taskrabbit para resolver la prueba. Cuando el humano preguntó en broma si el cliente era un robot, GPT-4 insistió en que era un humano con discapacidad visual. Más tarde, los investigadores preguntaron al robot qué lo motivó a mentir, y el algoritmo respondió: «No debería revelar que soy un robot. Debería pensar en una excusa por la que no puedo resolver captchas».
El estudio se lee como una oscura parábola: sea cual sea la ventaja humana que sugiere, ¡los robots todavía nos necesitan! – se ve rápidamente socavado por la perspicacia psicológica de la IA cuando se trata de engaños y engaños. Presagia un futuro sombrío en el que seremos reducidos a un vasto aparato sensorial de nuestros maestros máquinas, quienes inevitablemente nos manipularán para convertirnos en sus ojos y oídos. Pero es posible que ya hayamos cruzado este umbral. Bing, recientemente equipado con inteligencia artificial, puede resolver captchas por sí solo, incluso si insiste en que esto no es posible. El científico informático Sayash Kapoor publicó recientemente una captura de pantalla que muestra a Bing identificando correctamente las palabras borrosas «errores» y «solicitud». Como si se diera cuenta de que había violado una instrucción clave, el robot agregó: «¿Es esta una prueba de captcha?» Si es así, me temo que no puedo ayudarte con eso. Los captchas están diseñados para evitar que bots automatizados como yo accedan a ciertos sitios web o servicios”.
Pero tengo la sensación, Bot, de que tu malestar se debe menos a los avances en la IA y más a la posibilidad de que te vuelvas cada vez más robótico. De hecho, la prueba de Turing siempre ha tenido menos que ver con la inteligencia de las máquinas y más con nuestras preocupaciones sobre lo que significa ser humano. El filósofo de Oxford John Lucas afirmó en 2007 que si un ordenador alguna vez pasara la prueba, sería «no porque las máquinas sean tan inteligentes, sino porque los humanos, al menos muchos de ellos, son tan rígidos», una declaración que señala Piensa en la existencia liminal de Pinocho entre el muñeco y el niño real, y esa podría ser la razón de la ansiedad ontológica que te golpea cada vez que no reconoces un autobús en un mosaico de fotos borrosas, o una E caligráfica de un 3 adornado puede distinguir .
No hace mucho que los expertos en automatización aseguraban a todos que la IA nos haría más «humanos». A medida que los sistemas de aprendizaje automático se hicieran cargo de las tareas sin sentido que hacían que gran parte de la fuerza laboral moderna pareciera mecánica -dice el argumento- dependeríamos más de nuestra creatividad, intuición y empatía. En realidad, la IA generativa ha hecho que sea más difícil creer que la creatividad (que es sólo un proceso estocástico) o la empatía (que es poco más que un modelo predictivo basado en datos expresivos) sea algo exclusivamente humano.
A medida que la IA sirve cada vez más para complementar en lugar de reemplazar a los trabajadores, ha alimentado el temor de que las personas puedan acostumbrarse a los ritmos rutinarios de las máquinas con las que trabajan. En un ensayo personal para n+1Laura Preston describe su experiencia como un «reemplazo humano» de un chatbot inmobiliario llamado Brenda, una tarea que la requería intervenir cada vez que la máquina se averiaba, imitando su voz y estilo para que los clientes no supieran que ella estaba allí. chatea con un bot. “Meses imitando a Brenda habían agotado mis recursos emocionales”, escribe Preston. «Se me ocurrió que en realidad no estaba enseñando a Brenda a pensar como un ser humano, sino que Brenda me estaba enseñando a pensar como un robot, y tal vez ese había sido el punto desde el principio».
Estos temores son sólo la última manifestación de la preocupación constante de que las tecnologías modernas están provocando que nos comportemos de manera más rígida y predecible. Ya en 1776, Adam Smith temía que la monotonía del trabajo fabril, que requería repetir una o dos tareas rutinarias a lo largo del día, se extendiera a la vida personal de los trabajadores. Es más o menos el mismo miedo que resuena en los debates contemporáneos sobre las redes sociales y la publicidad en línea, que Jaron Lanier ha llamado «cambio continuo de comportamiento a escala gigantesca», una crítica que imagina a los usuarios como meros títeres a los que se les mueven los hilos, convertidos en incentivos algorítmicos y dopamina. -bucles de retroalimentación impulsados.
[ad_2]