[ad_1]
El 9 de noviembre, veremos por primera vez el tan promocionado «AI Pin» de Humane (sea lo que sea), y la startup de almacenamiento de IA personalizado, Rewind, lanzará un avance al mercado en algún momento en el futuro, el cual no podrás rastrear. sólo tu vida digital, sino también tu vida física en el futuro previsible. Hay mucho entusiasmo en torno a la reunión de Sam Altman de OpenAI con Jony Ive, el dios del diseño de Apple desde hace mucho tiempo, sobre el desarrollo de algún tipo de dispositivo de hardware de IA, con murmullos sin aliento en todos los pasillos de la oficina de VC. Suena como el próximo momento del iPhone para la IA.
Por supuesto, el potencial es inmenso: un dispositivo que toma el poder de ChatGPT con IA generativa y lo extiende a muchos otros aspectos de nuestras vidas, con suerte con un poco más de inteligencia y practicidad. Pero los costos son significativos; no los costos financieros, que son simplemente otra transferencia de riqueza de las reservas de carbón de las oficinas familiares ricas y de las personas adineradas al fuego insaciable de las tasas de quema de startups. No, me refiero al precio que pagamos por la privacidad.
La muerte de la privacidad se ha producido a lo largo de los años en respuesta a numerosos avances tecnológicos, incluidos aspectos como compartir la ubicación en vivo de dispositivos móviles; el surgimiento y eventual ubicuidad de las redes sociales y los gráficos sociales resultantes; cartografía por satélite e imágenes de alta resolución; filtraciones masivas de credenciales e información de identificación personal (PII) y mucho más.
La IA generativa –del tipo popularizado por OpenAI y ChatGPT y a la que la mayoría de la gente se refiere cuando anticipa una próxima ola de dispositivos de IA– es otro enemigo mortal de lo que llamamos privacidad, y es uno de sus asesinos más voraces y aún indiscriminados.
En nuestro reciente evento TechCrunch Disrupt en San Francisco, la presidenta de Signal, Meredith Whittaker, una de las pocas figuras importantes de la tecnología que parece dispuesta y ansiosa por abordar las amenazas realistas específicas de la IA en lugar de señalar posibles escenarios apocalípticos, dijo que para excluir la atención de la gente. desde el precio – dijo que la IA es, en esencia, «una tecnología de vigilancia» que «requiere el modelo de negocio de vigilancia» en términos de su capacidad y necesidad de absorber todos nuestros datos. También es adecuado para monitorear el reconocimiento de imágenes, el análisis de sentimientos y muchas otras aplicaciones similares.
Todas estas compensaciones se aplican a una réplica razonable de una computadora que piensa y sabe, pero no a una que realmente pueda pensar y saber. Las definiciones de estas cosas variarán, por supuesto, pero la mayoría de los expertos coinciden en que, si bien los LLM que tenemos hoy son definitivamente avanzados y claramente capaces de imitar de manera convincente el comportamiento humano en ciertas circunstancias limitadas, no son verdaderamente conocimiento humano ni reproducen el pensamiento humano.
Pero incluso para alcanzar este nivel de rendimiento, los modelos en los que se basan cosas como ChatGPT requirieron el ingreso de cantidades masivas de datos, datos que posiblemente fueron recopilados con el «consentimiento» de quienes los proporcionaron, publicándolos libremente en Internet sin tener una comprensión clara de lo que eso significaría para la recopilación y reutilización, y mucho menos en un dominio que probablemente no existía en el momento de su lanzamiento.
Esto tiene en cuenta la información digital, que en sí misma es una colección muy extensa de datos que probablemente revela mucho más de lo que cualquiera de nosotros sería capaz de comprender individualmente. Pero ni siquiera incluye el tipo de información del mundo físico que deben recopilar dispositivos como Human AI Pin, Rewind Pendant y otros, incluidas las gafas inteligentes Ray-Ban Meta que el propietario de Facebook lanzó a principios de este mes y agregará funciones. que proporcionan información bajo demanda sobre objetos y ubicaciones del mundo real capturados por sus cámaras integradas.
Algunos de los que trabajan en esta categoría emergente se han anticipado a las preocupaciones sobre la privacidad y han implementado todas las salvaguardas posibles: Humane señala que su dispositivo siempre tiene un LED amarillo para indicar cuándo se está realizando una grabación; Meta ha rediseñado la luz de notificación de las gafas inteligentes Ray-Ban respecto a la primera versión para desactivar físicamente la grabación cuando detecta manipulación u oscurecimiento del LED; Rewind dice que adopta un enfoque que prioriza la privacidad en todo el uso de datos con la esperanza de que se convierta en el estándar de la industria.
Es poco probable que esto se convierta en el estándar para la industria. Históricamente, el estándar ha sido el mínimo que el mercado y los reguladores podían tolerar, y ambos han tendido a aceptar una mayor interferencia con el tiempo, ya sea tácitamente o al menos debido a una falta de objeción a cambiar los términos y condiciones y las políticas de privacidad.
Un salto de lo que tenemos ahora a una computadora verdaderamente pensante y consciente que pueda actuar como una compañera virtual y tener una imagen de nuestras vidas al menos tan completa como la nuestra requiere la pérdida de todos los datos que podamos esperar recopilar o poseer. – en la medida en que sea algo que cada uno de nosotros pueda poseer. Y si logramos nuestros objetivos, la cuestión de si esos datos alguna vez abandonan nuestros dispositivos locales (y las inteligencias virtuales dentro de ellos) en realidad se vuelve algo discutible, ya que nuestra información se compartirá con otros, incluso si la otra persona está allí. Sucede que no existe forma de carne ni de sangre.
Es muy posible que el concepto de «privacidad» tal como lo entendemos hoy esté desactualizado o inadecuado a estas alturas dado el mundo en el que nos encontramos, y quizás tengamos algo que pueda reemplazarlo, que mantenga su espíritu de privacidad ante esto. nuevo paradigma. De cualquier manera, creo que el camino hacia el momento de la IA en el iPhone requerirá inevitablemente la «muerte» de la privacidad tal como la conocemos, algo que las empresas que ven y valoran la privacidad como un diferenciador clave, como Apple, enfrentarán en la próxima década aproximadamente. Estás en una posición extraña.
[ad_2]