¿Contratado y despedido por un algoritmo?

¿Contratado y despedido por un algoritmo?

In this photo, a US probation officer sorts through a defendant files scored with risk-assessment software. There has also been a sharp rise in the use of algorithms, data and AI in human resources and productivity planning.

(AP/Dake Kang)

Piense por un momento en si usted ocuparía el mismo puesto de trabajo que tiene si se hubiera utilizado un algoritmo para contratarle. Piense sobre sus registros financieros, su expediente médico y sus amigos en las redes sociales. ¿Es usted miembro de algún sindicato? ¿Lleva una pulsera Fitbit para monitorizar su salud y actividad física? ¿Qué hábitos de compra tiene y qué hace en su tiempo libre? Entonces, pregúntese: ¿cómo afectaría todo esto a su vida laboral? ¿Le contratarían, despedirían, sancionarían o ascenderían?

Lo que parece una pregunta extraña es en realidad una cuestión sobre la que todos deberíamos reflexionar y ante la que deberíamos tomar medidas.

La ‘gestión mediante algoritmos’ se está extendiendo y cada vez se utilizan más datos de fuentes diferentes en los procesos relacionados con los recursos humanos. Por desgracia, existen en todo el mundo (excepto en Europa, en cierta medida) muy pocas normativas vigentes para protegernos del uso inadecuado de los datos personales de los trabajadores por parte de las empresas. Los sindicatos deben corregir esta deficiencia normativa e incluir el derecho a la protección de los datos de los trabajadores en el orden del día para que los gobiernos y directivos procedan con responsabilidad y rindan cuentas.

El reciente escándalo de Facebook y Cambridge Analytica demostró sobradamente el valor que tienen los datos (personales). Su importancia para la publicidad, la elaboración de perfiles y el marketing es tan grande que se compran y se venden todos los años por una cifra desconocida. En 2014 se calculó que el valor de los flujos de datos ascendió a 2,8 billones de dólares USD (2,5 billones de euros). Ahora compare esa impresionante cifra con el hecho de que tres años más tarde, en 2017, el Foro Económico Mundial calculó que el 90% de todos los datos de aquel entonces se habían generado a partir de 2015. Tan solo podemos imaginar a cuánto asciende el valor real de los actuales flujos de datos.

Todo el tiempo vamos dejando un rastro de datos detrás nuestro que abarcan desde nuestros perfiles en las redes sociales, likes y publicaciones, hasta las llamadas telefónicas a los servicios de atención al cliente, las visitas al médico, el uso del GPS o las retiradas de efectivo en el banco. Ya revelamos voluntariamente nuestros nombres y direcciones de correo eléctronico cuando nos conectamos a las zonas de acceso público y gratuito al Wi-Fi en cafeterías, aeropuertos o estaciones de tren y más o menos nos hemos acostumbrado tanto a los servicios digitales ‘gratuitos’ que casi nos molesta que una aplicación para móvil cueste dinero. La cuestión es que nada es gratis.

Lo que hemos estado haciendo, y seguimos haciendo, es revelar libre y a menudo voluntariamente nuestra ubicación, así como nuestros hábitos, actividades y opiniones. Es decir, estamos pagando con nuestros datos. Pero, ¿quién está comprando, leyendo, analizando y vendiendo estos datos?

La verdad es que no lo sabemos y, aunque queramos, no lo podemos saber. Insiders UNI se ha pronunciado para calcular que las grandes empresas de tecnología como Google, Amazon, Facebook, Apple, Microsoft y Alibaba son las propietarias de más del 70% de los datos combinados de todo el mundo. Dicha concentración de lo que constituye un bien tan preciado coloca a estas empresas en una posición inaceptable de poder económico, digital, social e incluso político.

Los trabajadores de todo el mundo cuentan con muy pocos o nulos derechos legales para solicitar información o influir sobre el uso de sus datos personales. Ya sabemos que existen los llamados “corredores de datos”, empresas que viven de comprar y vender datos. Sabemos que las empresas están extrayendo datos de los trabajadores. ¿Los venden después? Y en caso afirmativo, ¿a quiénes? ¿Quién llega a saber lo que dice nuestro expediente médico o lo productivos que somos según un algoritmo o una empresa? ¿Cómo están utilizando las empresas dichos datos (que al parecer son fácilmente accesibles para cualquiera que pueda permitirse pagarlos) para manejar a sus trabajadores?

Vigilancia, manipulación y control mediante algoritmos

Aunque hemos abierto los ojos un poco más tras las revelaciones sobre cómo se utilizaron datos para manipular y abordar a votantes (como en las elecciones estadounidenses y el Brexit), los políticos y expertos prestan muy poca atención al modo en que los datos se utilizan y pueden usarse de forma fraudulenta en el ámbito laboral. Se ha observado un brusco aumento del uso de los algoritmos, los datos personales y la inteligencia artificial en el ámbito de los recursos humanos y la planificación de la productividad. Cada vez están brotando más empresas que ofrecen soluciones de inteligencia artificial para reducir costes al tratar con la gente. Desde la selección autónoma de solicitantes y solicitudes de empleo y el uso de abundantes datos para medir la productividad, hasta los análisis para determinar el estado de ánimo de los empleados y los modos de averiguar automáticamente la motivación de una persona, entre otras muchas.

Aunque algunas de estas soluciones pueden tener efectos positivos, los riesgos para la intimidad de los trabajadores y el riesgo de que se nos evalúe en base a una norma digital son cuantiosos. ¿No van a ascender a un trabajador debido a su expediente médico? ¿No va a conseguir un puesto de trabajo porque es miembro de un sindicato o tiene amigos determinados o características personales que un algoritmo debe rechazar?

Todo esto puede sonar hipotético, pero por desgracia no lo es. En la UNI Global Union ya estamos viendo cómo estos sistemas autónomos están afectando negativamente a los trabajadores. Especialmente a aquellos empleados en lugares de trabajo no sindicalizados, donde no existen mecanismos de equilibrio compuestos por trabajadores organizados ni ningún modo de alcanzar acuerdos para rectificar las malas prácticas.

En uno de estos casos, los trabajadores de un banco empleados en un centro de atención al cliente están sometidos a un sistema que mide el tono de la voz y el estado de ánimo de los clientes y los trabajadores. Dicho sistema aconseja a los trabajadores sobre lo que deben decir, vender y hacer y les supervisa para que consigan hacer ‘lo correcto’. Para estos trabajadores no sindicalizados, el sistema ha sido catastrófico. La valoración estaba vinculada al rendimiento, pero el sistema no reconocía las voces femeninas con tanta precisión como las masculinas y degradaba los acentos de las minorías étnicas comparándolas con las de los hombres blancos. Aunque los trabajadores podían revisar las grabaciones con los directivos, rara vez se corregían los errores. Todo esto se incluía en la huella digital de cada trabajador y no solo les perjudicaba en su trabajo en la empresa, sino que también podía dificultarles la búsqueda de nuevos puestos de trabajo.

Existen muchos otros ejemplos: una empresa regaló a todos sus trabajadores una pulsera Fitbit para monitorizar su salud y actividad física con el supuesto objetivo de convertirse en una empresa saludable, pero luego utilizó los datos del GPS para advertir a un trabajador con sobrepeso, que al parecer no se movía mucho en su tiempo libre, de que se estaba convirtiendo en una carga para la compañía. También hay empleados de almacén a los que monitorean cualquier movimiento que realicen con las manos o los brazos para medir su eficacia en el embalaje de los productos, trabajadores del cuidado a los que regañan si dedican demasiado tiempo a un cliente y trabajadores a los que despiden porque lo dice un algoritmo.

La respuesta sindical

No cabe ninguna duda de que los sindicatos deben actuar ya. Tenemos que organizarnos, construir alianzas con gente afín y exigir una parte del acervo de datos. Asimismo debemos rectificar estas deficiencias normativas y exigir el derecho a la protección de los datos de los trabajadores. Y esto debe hacerse a todos los niveles: desde los convenios colectivos hasta las legislaciones y convenios nacionales e internacionales. Tenemos que movilizar a la Organización Internacional del Trabajo (OIT), al Consejo de Derechos Humanos de las Naciones Unidas, a los gobiernos nacionales, a los interlocutores sociales y a las mismas empresas.

La UNI Global Union se está ocupando de estas cuestiones en todo el mundo. Estamos debatiendo sobre cómo nosotros, los sindicatos, podemos aprovechar la importancia de los conjuntos de datos y beneficiarnos de la información que ofrecen. Estamos alzando la voz contra la monopolización de la propiedad de datos y presionando para que los datos se conviertan en un bien común. Un bien público al que podamos acceder todos y todas. Una cosa es proteger nuestros derechos fundamentales y otra dar un paso más y exigir que la propiedad de los datos sea colectiva. Ambas son igual de importantes.

Asimismo, hemos elaborado dos documentos fundamentales: los Principales diez principios para la protección y la privacidad de los datos de los trabajadores y los Principales 10 principios relativos a la Inteligencia Artificial Ética. Ambos están interrelacionados y presentan las reivindicaciones esenciales que debemos fijar para evitar un futuro en el que se someta a los trabajadores a tomas de decisiones mediante algoritmos que estén fuera del control y del conocimiento humano.

Dichos principios abarcan los temas fundamentales del derecho al acceso, la influencia y la consulta. Básicamente establecen que los trabajadores deben:

■ ser informados antes del procesamiento de los datos;
■ tener derecho a explicarse sobre los temas relacionados con la toma de decisiones mediante algoritmos;
■ tener derecho a la portabilidad de datos (es decir, los trabajadores deben gozar de la libertad de llevarse sus datos con ellos cuando dejen una empresa); y
■ tener derecho a cuestionar y oponerse al procesamiento de los datos.

Además, las empresas deben cumplir el principio de minimización de datos y, lo que es más importante, comprometerse a ser transparentes y responsables en el uso de los datos. Este último punto es crucial y no está incluido en el Reglamento general de protección de datos de la UE, lo cual resulta sorprendente.

Inteligencia artificial ética

El término ‘inteligencia artificial’ abarca en este contexto a todos los sistemas automatizados o semiautomatizados, incluida la toma de decisiones mediante algoritmos. Nuestros principios abarcan temas fundamentales como la transparencia, la responsabilidad y el control. Primero tenemos que exigir que los sistemas autónomos sean rastreables, es decir, que se puedan identificar los conjuntos de datos que se utilizaron en el algoritmo.

Con demasiada frecuencia escuchamos a los expertos en datos declarar que no se puede decodificar el algoritmo. Eso es totalmente inaceptable, pues supondría que ni la dirección ni los trabajadores pueden exigir saber en base a qué (datos) se ha desarrollado un resultado algorítmico.

Esto a su vez podría provocar una situación en la que la dirección, deliberada o involuntariamente, subordina su control y responsabilidad a un algoritmo con todos los riesgos y peligros que ello implicaría no solo para los trabajadores, sino también para la sociedad en su conjunto. Nunca tenemos que llegar a una situación en la que la dirección pueda simplemente encogerse de hombros y alegar que ‘el algoritmo me ordenó que le despidiera, pero no sé por qué’.

Los seres humanos deben controlar el sistema en todo momento y no al revés. Tampoco debemos aceptar nunca la idea de que los sistemas autónomos (robots, algoritmos) pueden considerarse responsables. Los robots son objetos; son productos y nunca hay que atribuirles responsabilidad jurídica.

Ahora no cabe ninguna duda de que hay que tomar medidas urgentemente. Los sindicatos de todo el mundo deben abordar estos asuntos fundamentales. Sencillamente no podemos confiar en que otros lo hagan. La tecnología digital se está desarrollando a una velocidad vertiginosa y nuestras exigencias éticas al respecto deben ser claras. No podemos arriesgarnos a que impidan a la gente trabajar o prosperar en el mercado laboral debido a un algoritmo que nadie controla ni puede rectificar.

La UNI Global Union cree que la propiedad colectiva de los datos, la inteligencia artificial ética y los derechos de protección de datos de los trabajadores constituyen asuntos fundamentales para los sindicatos. Tenemos que lograr que los directivos y gobiernos se comprometan a asumir la responsabilidad. Solo así podremos garantizar un ámbito laboral digital que sea inclusivo y abierto y nos empodere a todos y todas.