Por qué este vídeo de una mujer en el váter grabado por una Roomba no será el último que veamos | Tecnología



Hace unos días salieron a la luz una serie de imágenes grabadas en 2020 por aspiradores automáticos Roomba. En una de ellas se ve a una joven sentada en la taza del váter con los pantalones bajados. Es la más llamativa, pero hay otras en las que aparece un niño tumbado en el suelo mirando al robot limpiador o una mujer paseando por su casa. En total, 15 extractos de vídeos grabados en Estados Unidos, Japón, Francia, Alemania y España que fueron encontrados en Facebook y Discord por una reportera del MIT Technology Review.

Lo interesante del caso es cómo han llegado esos vídeos a circular por las redes sociales. Los subieron a internet microtrabajadores venezolanos que se ocupaban de etiquetar imágenes para entrenar al algoritmo de las aspiradoras. Y eso nos dice dos cosas: que la inteligencia artificial es menos automática de lo que se predica y que la economía de plataformas (lo que una vez se llamó economía colaborativa) ha asumido cotas insospechadas.

Vivimos rodeados de aparatos que se apoyan en algoritmos de aprendizaje automático, o machine learning. Esta tecnología consiste básicamente en coleccionar grandes cantidades de datos y desarrollar algoritmos que saquen patrones sobre ello. El aprendizaje automático se usa, por ejemplo, en los sistemas de visión computacional, presentes en los coches autopilotados y en las aspiradoras robóticas. Para que el ordenador reconozca una silla hace falta darle (entrenarle con) miles o millones de ejemplos de imágenes de sillas, de manera que extraiga un patrón y sea capaz de identificar una cuando se le muestre.

Pero alguien tiene que asociar esos miles de imágenes que se le facilitan a la máquina con la palabra silla. Ahí entran los etiquetadores, una pieza tan fundamental como silenciosa de la inteligencia artificial. Son trabajadores que se conectan a ciertas plataformas (Amazon Mechanical Turk fue la pionera) en las que escriben manualmente lo que aparece en la imagen, identifican y señalan contenidos potencialmente problemáticos o ayudan a mejorar la tecnología de reconocimiento de voz interpretando y traduciendo fragmentos de audio particularmente difíciles a los que no llegan los traductores automáticos.

Todo esto sucede en tiempo real, en un proceso de subasta instantánea de microtareas pagadas a céntimos de dólar. Mary L. Gray y Siddharth Suri describieron esta industria en Ghost Work, un libro que sacudió al sector en 2019 al demostrar que la inteligencia artificial funciona gracias a una legión de trabajadores fantasma, la mayoría ubicados en países en vías de desarrollo, que realizan microencargos extremadamente sencillos y mal pagados. Todo lo que necesitan es un ordenador con conexión a internet y responder en el momento. Igual que los riders que recorren las ciudades a lomos de sus bicicletas con la cena de otros en sus mochilas cuadradas.

El retrato que hacen de la inteligencia artificial estos dos investigadores de Microsoft choca frontalmente con los cantos de progreso y menos trabajo pesado que vienen prometiendo desde hace lustros los garantes de esta tecnología. La automatización aporta grandes mejoras a nuestras vidas, sí, pero a costa de generar trabajos basura al servicio de la inteligencia artificial. Estos empleos invisibles se concentran en países no occidentales, pero también ocupan a gente en EE UU u otros países europeos. Aunque, igual que los riders, trabajan muchas horas por poco dinero. La inteligencia artificial también va a pedales.

“Los grandes avances tecnológicos”, sostienen Gray y Suri, “siempre han requerido mano de obra barata y prescindible”. En 1800, los dueños de los molinos textiles de Massachusetts contrataban a granjeros para que elaborasen prendas demasiado delicadas como para hacerse en sus talleres mecánicos. En los años cincuenta del siglo pasado, las calculistas, o calculadoras humanas, repasaban las cuentas de los primeros ordenadores. Hoy se paga a gente para perfeccionar motores de búsqueda y ayudar a entrenar algoritmos.

El caso de Roomba demuestra hasta qué punto eso es cierto. Los venezolanos que colgaron los vídeos accedieron a ellos a través de Scale AI, una de las empresas a las que iRobot, los productores de los aspiradores Roomba, contratan el “entrenamiento” de sus sistemas. Los trabajadores estaban etiquetando los objetos con los que se cruzan las aspiradoras para mejorar sus sistemas.

Amazon anunció el pasado verano su intención de hacerse con iRobot a cambio de 1.700 millones de dólares. La operación está a la espera de que el regulador de EE UU determine si afectaría a la libre competencia en el sector de los hogares inteligentes.

Según dijo iRobot al MIT Technolgy Review, las imágenes filtradas proceden de prototipos de robots modificados. La empresa asegura que Scale AI ha infringido los términos del contrato, mientras que la plataforma de microtrabajos descarga la responsabilidad en los microtrabajadores que han compartido las imágenes. El caso es que se están compartiendo datos muy sensibles de los usuarios con el único objetivo de entrenar algoritmos. Y no es descabellado pensar que esto suceda con otros productos inteligentes más allá de las aspiradoras Roomba.

Mantener cierta privacidad en la era digital es una quimera. Desde el momento en que subimos un documento a internet, este pasa a poder ser hackeado o robado. La intervención de trabajadores fantasma en los procesos de la inteligencia artificial agrega un nuevo vector de potenciales fugas de datos. Y muestra las costuras de una tecnología, la inteligencia artificial, que se presuponía más automática y menos analógica. Cada vez que veamos un rider por la calle podemos pensar que en alguna habitación de Caracas, Bombai o Detroit puede haber un colega suyo contribuyendo a que la aplicación de Uber o las aspiradoras Roomba funcionen un poco mejor.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.





Source link