[ad_1]
A medida que surgieron más y más problemas con la IA, incluidos los sesgos relacionados con la raza, el género y la edad, muchas empresas tecnológicas instalaron equipos de «IA ética» aparentemente dedicados a identificar y mitigar dichos problemas.
La unidad META de Twitter ha sido más progresista que la mayoría cuando se trata de publicar detalles sobre problemas con los sistemas de IA de la empresa y permitir que investigadores externos prueben sus algoritmos en busca de nuevos problemas.
Después de que los usuarios de Twitter notaron el año pasado que un algoritmo utilizado para recortar fotos parecía favorecer a las caras blancas, Twitter tomó la decisión inusual de que su unidad META publicara detalles sobre la distorsión que descubrió. El grupo también lanzó uno de los primeros concursos de «recompensa por sesgo», lo que permitió a investigadores externos probar el algoritmo en busca de otros problemas. En octubre pasado, el equipo de Chowdhury también tuiteó detalles sobre el sesgo político involuntario, mostrando cómo las fuentes de noticias de tendencia derechista en realidad se promocionaban más que las de tendencia izquierdista.
Muchos investigadores externos vieron los despidos como un golpe no solo para Twitter sino también para los esfuerzos por mejorar la IA. «Qué tragedia», escribió en Twitter Kate Starbird, profesora asociada de la Universidad de Washington que estudia la desinformación en línea.
contenido de Twitter
Este contenido también se puede mostrar en el sitio web. se origina afuera.
«El equipo de META fue uno de los pocos buenos estudios de caso de una empresa de tecnología que dirige un grupo de ética de IA que interactúa con el público y la academia con gran credibilidad», dice Ali Alkhatib, director del Centro de Ética de Datos Aplicados de la Universidad de San francisco
Alkhatib dice que Chowdhury es increíblemente respetada en la comunidad de ética de la IA y su equipo ha hecho un trabajo realmente valioso al hacer que Big Tech rinda cuentas. «No hay muchos equipos de ética empresarial que valga la pena tomar en serio», dice. «Ese fue uno de esos cuyo trabajo enseñé en clase».
Mark Riedl, profesor de IA en Georgia Tech, dice que los algoritmos utilizados por Twitter y otros gigantes de las redes sociales están teniendo un gran impacto en la vida de las personas y necesitan ser examinados. «Si META tuvo un impacto dentro de Twitter es difícil saberlo desde fuera, pero la promesa estaba ahí», dice.
Riedl agrega que permitir que personas externas examinen los algoritmos de Twitter es un paso importante hacia una mayor transparencia y comprensión de los problemas relacionados con la IA. «Se convirtieron en un perro guardián que podría ayudar al resto de nosotros a comprender cómo nos afecta la IA», dice. «Los investigadores de META tenían excelentes credenciales con una larga historia de estudio de la IA en beneficio de la sociedad».
En cuanto a la idea de Musk de abrir el algoritmo de Twitter, la realidad sería mucho más complicada. Hay muchos algoritmos diferentes que afectan la forma en que se muestra la información, y es difícil entenderlos sin los datos en tiempo real que los alimentan en forma de tweets, vistas y me gusta.
La noción de que existe un algoritmo con un sesgo político explícito podría simplificar en exceso un sistema que puede albergar sesgos y problemas aún más insidiosos. Descubrirlos es exactamente el tipo de trabajo que ha estado haciendo el grupo META de Twitter. «No hay muchos grupos que estudien rigurosamente los sesgos y fallas de sus propios algoritmos», dice Alkhatib de la Universidad de San Francisco. «META hizo eso.» Y ahora no lo hace.
[ad_2]