Aída Ponce del Castillo, investigadora: “[directivos como Sam Altman] están añadiendo una nueva capa de gobernanza. ¿Cómo hacer leyes democráticas con actores tan poderosos?”

Aída Ponce del Castillo, investigadora: “[directivos como Sam Altman] están añadiendo una nueva capa de gobernanza. ¿Cómo hacer leyes democráticas con actores tan poderosos?”

“The current industrial revolution is invisible, immaterial and is taking place at a much faster rate. The risks of certain software are not readily apparent. Trade unions and workers have to keep a critical eye on all emerging technologies. We need to know how to ask concrete and useful questions,” says Aída Ponce del Castillo, pictured here.

(Marta Checa/Equal Times)

La capacidad disruptiva de toda nueva tecnología es una constante en nuestra historia; la diferencia distintiva del momento actual con otros momentos cruciales se encuentra en la velocidad a la que se implanta (la inteligencia artificial –IA–, concretamente) y la incapacidad de comprenderla (salvo si se estudia), lo que provoca un desequilibrio abismal entre quienes desarrollan esta nueva tecnología y el resto del mundo. En Europa, donde los legisladores de la UE se han lanzado a regular la IA, ¿cómo se prevé proteger al ciudadano, y más concretamente a los trabajadores? ¿Y los empleos y el medioambiente?

Hablamos con Aída Ponce del Castillo, abogada especializada en ciencia y tecnología, doctora en Derecho e investigadora de la Unidad de prospectiva del Instituto Sindical Europeo (ETUI, según sus siglas en inglés), para aclarar cómo de equipada está la actual propuesta legislativa para responder a los retos que genera la IA –sin olvidar la tecnología que venga después–.

Por si aún quedaran dudas: entre guías de ética, autorregulación y desarrollar una legislación específica, ¿por cuál deberíamos insistir a la hora de abordar la digitalización, y, concretamente la IA?

Una ley o reglamentación específica es el resultado de un proceso legislativo y democrático por el cual se establecen derechos y obligaciones concretas para las personas a las que esa ley se aplica, en concreto los ciudadanos de la Unión Europea. Las guías éticas no son ley sino documentos voluntarios basados en ‘valores’ acordados; los diferentes grupos de la sociedad pueden estar de acuerdo o no, y pueden tener varios tipos de interpretación. Y la autorregulación es también voluntaria y se elabora de manera unilateral.

En el campo laboral ni la autorregulación ni los códigos de ética funcionan. En una empresa, si se colectan los datos del trabajador, por ejemplo su expresión facial, rasgos físicos o sus datos biométricos, y esos datos personales se usan para otros fines que no corresponden a los del contrato laboral –para espiarlo o medir esos rasgos para otros fines–, ninguna guía ética te va a dar la posibilidad de levantar la voz o de ejercitar un derecho, eso solo te lo da una ley. Ni las guías éticas ni la autorregulación tienen capacidad de ejecución.

En Europa, desde comienzos de junio, la Comisión Europea [el regulador] está de algún modo promocionando unos códigos de conducta para la IA basados en compromisos que hace con los actores a los cuales ese código está destinado. Hasta que la regulación europea sobre la inteligencia artificial no esté lista, son las industrias concretas las que proponen una serie de compromisos –al estilo de un acuerdo entre caballeros–, basados en política industrial –y no ética–. ¿Pero a qué obliga o compromete esto? No lo sabemos.

Del Reglamento General de Protección de Datos (RGPD), ya en vigor, a la Ley europea de inteligencia artificial (que acaba de dar un gran salto al aprobarse la posición final del Parlamento Europeo y que permite el inicio de las discusiones con los Estados miembros y la Comisión, los trílogos), que podría entrar en vigor en 2025, y como tarde en 2026, ¿cómo se protege a las personas en el presente de la digitalización? ¿Destila “tinte social” por algún sitio?

No. El reglamento está destinado a promover y ampliar el mercado único. Ese es su alcance –teniendo en cuenta el respeto de los derechos fundamentales de las personas que viven en Europa–. La idea de la Comisión Europea es dar un marco jurídico para que los sistemas de inteligencia artificial puedan comprarse, aplicarse y desarrollarse –a ser posible en Europa–; elevar el potencial como productor y no solamente consumidor de inteligencia artificial de otros actores internacionales –Estados Unidos y otras jurisdicciones–.

Para promocionar ese mercado digital necesita que las empresas europeas puedan florecer y desarrollarse y también necesita que otras empresas extranjeras puedan invertir con seguridad económica aquí en el mercado digital europeo. Thierry Breton [Comisario europeo de Mercado Interior y Servicios] es el encargado de promover ese mercado único digital, que, en mi opinión, con la Ley de IA se ha transformado en un verdadero mercado único de los datos. Es decir, son los datos los que dan una dirección a la economía.

¿Se protege o prevé proteger al trabajador en su lugar de trabajo con la nueva legislación (el artículo 22 del RGPD daba el derecho a la explicación frente a decisiones basadas en el tratamiento automatizado de datos)?

La Ley europea de la inteligencia artificial no está destinada al mundo laboral. No es una ley que se aplique directamente al empleador o al trabajador en su relación laboral. Es una ley que aplica a los proveedores/implementadores y a los importadores de sistemas de inteligencia artificial. El trabajador ni siquiera está mencionado en la ley.

Lo que tenemos que dilucidar es cuál es el papel del empleador, si es productor de inteligencia artificial, si es importador o si es implementador. Dependiendo de en qué casilla caiga, tiene diferentes obligaciones de acuerdo con esta ley. Concretamente, cómo implementa el sistema de inteligencia artificial, pero no cómo lo implementa con sus trabajadores o con los consumidores. Es ahí donde está el punto difícil, porque no hay ninguna disposición que diga “lo vas a implementar teniendo en cuenta la relación laboral o teniendo en cuenta a tus trabajadores”. No dice “estas son tus obligaciones, lo uses con los consumidores, con pacientes, etc.”. Aunque el Parlamento ha propuesto enmiendas que plantean que el trabajador sea informado y consultado antes de que un sistema de IA sea implementado en la empresa, esas enmiendas no especifican el proceso.

No obstante, la Ley europea sobre la inteligencia artificial hace referencia a que esta implementación de sistemas tiene que hacerse respetando las obligaciones de la ley existentes, además de las obligaciones de los reglamentos sectoriales: por ejemplo, la Directiva de salud y seguridad, el Reglamento de máquinas… cuestiones y reglamentos que tienen que ver con el derecho laboral. [Lo que sí ha avanzado el Parlamento es la prohibición del uso] de sistemas de inteligencia artificial que calculen o predigan las emociones y el comportamiento humano, incluyendo esa prohibición en los lugares de trabajo. [De aceptarse en los trílogos, sería una] manera de integrar cierta protección para el ciudadano en general y para el trabajador en particular.

Por otra parte, los sistemas de alto riesgo están sujetos a obligaciones legales que estarán operacionalizadas por estándares. Y esos son los que van a dar los detalles concretos de cómo un implementador puede implementar un sistema de inteligencia artificial, de tal manera que el implementador cumpla con las obligaciones del reglamento, tenga más conocimiento de qué es lo que está implementando y se proteja al consumidor/trabajador. El gran “pero” es que estas obligaciones estarán operacionalizadas por unos estándares, y estos se producen en comités cerrados sujetos a una membresía, y están sujetos a evaluaciones de autoconformidad del propio implementador. Es decir, el mismo implementador decide si ha cumplido con las obligaciones y las certifica él mismo.

A manera de previsión prospectiva, el Parlamento añadió que no debía impedirse que la Comisión proponga legislación específica sobre los derechos y libertades de los trabajadores afectados por los sistemas de IA, lo que muestra esta necesidad de establecer normas jurídicas concretas para la protección en el trabajo.

¿Se ha pensado en proteger el trabajo? No me refiero a que se frene la optimización en el mundo laboral, sino al necesario equilibrio entre optimización e impacto social. Es decir, que ese impacto, que tiene un coste (ya sea de formación continua para el trabajador, de prestación por desempleo para quienes se quedan sin trabajo, además de medioambiental…) forme parte de la ecuación (de modo que quienes lo provocan paguen su parte).

El espíritu del legislador es “impulsemos y consolidemos el mercado interno sobre inteligencia artificial”. Punto. No hay ninguna intención de hacer un enlace entre la agenda digital y el Pacto Verde. No hay ninguna intención de escrutar: “¿cómo se produce la inteligencia artificial? ¿Quién está detrás del entrenamiento de ChatGPT? ¿Cuánta agua consumen los servidores? ¿Cuáles son las emisiones de CO2?, etc.”. No hay ninguna intención del legislador de entender, reglamentar y limitar la cadena de suministro que fundamenta toda la producción y distribución de la inteligencia artificial.

El Reglamento europeo sobre la inteligencia artificial está concebido únicamente para regular los riesgos altos de los sistemas de inteligencia artificial. La lista se está negociando ahorita con el Parlamento Europeo: se está hablando de los sistemas biométricos –si pueden estar presentes en lugares públicos–, sistemas de puntuación social…

Cuando jefes ejecutivos de grandes tecnológicas pasan por el Congreso estadounidense y ofrecen la hoja de ruta a seguir a los legisladores de esa nación (pongamos a Sam Altman, fundador de OpenAI), ¿deberíamos preocuparnos en el resto del mundo?

Sin duda. [Jefes ejecutivos como Altman] están añadiendo una nueva capa a la gobernanza de la IA –acordando con la Comisión Europea establecer un “Pacto de IA”, un pacto voluntario entre los principales actores europeos y no europeos–. No se limitan a influenciar solo con el lobby. Ellos mismos, como industriales y productores, tejen compromisos ad hoc con los legisladores. Tienen la capacidad y el poder para poner límites a las normativas y fijar direcciones muy precisas. Pueden negociar con un Estado como si ellos mismos fuesen un Estado. ¿Cuáles son las consecuencias para la gobernanza democrática?

Dos ejemplos: por la revista Time hemos sabido que Sam Altman ha insistido a los legisladores europeos para que no se prohíba o regulen los sistemas de inteligencia artificial de modelos fundacionales [como ChatGPT] en la categoría de “riesgo alto”. Y lo ha logrado. El Parlamento lo ha puesto ya en su posición. Por otra parte, con [la comisaria europea de Competencia] Margrethe Vestager ha discutido para acordar un código de conducta con la industria de la IA generativa sobre cómo comportarse en el mercado europeo.

¿Cómo hacer leyes democráticas con actores tan poderosos?

Visto así, parece que las grandes tecnológicas ya ni intentan aprovechar acuerdos comerciales para limitar que los Estados regulen en el interés público en lo referente a la gestión de los datos y transparencia algorítmica.

También lo están haciendo, pero ahora dan un paso más [que se resume en]: “hagamos un acuerdo entre tú y yo, y tú y yo sentamos las reglas del juego”.

Sobre la alfabetización digital y en IA, cómo se construye coraza, cómo defender nuestros derechos cuando los conocimientos tecnológicos son muy limitados o inexistentes.

En el entorno laboral no necesitamos que los sindicalistas se vuelvan ingenieros en computación. Evidentemente, si el sindicato adquiere más conocimientos informáticos y sobre inteligencia artificial, siempre es un valor añadido. Pero no olvidemos que desde el mismo nacimiento del sindicato, este ha enfrentado transformaciones tecnológicas. Por eso nació, por la transformación industrial.

La transformación industrial de hoy es invisible, inmaterial y muchísimo más veloz y acelerada. Los riesgos que puede provocar un software no se ven porque están escondidos al ojo humano. Es como trabajar con partículas muy, muy pequeñas. De modo que hay que poner un sistema ahí para identificar cuáles son los riesgos potenciales, a qué nivel y en qué sentido pueden impactar al ser humano.

Desde mi punto de vista, lo que necesitan tener los sindicatos, pero también los trabajadores, es un espíritu crítico sobre cualquier tecnología emergente (porque hoy es la inteligencia artificial, pero mañana será la neurotecnología y eso me parece que es muchísimo más peligroso). Debemos saber preguntar las preguntas concretas y útiles: ¿qué hace esa tecnología? ¿Tiene una implicación concreta y directa con el ser humano, utiliza los datos personales de un trabajador, en qué forma los utiliza? ¿Y cómo puedo saber más sobre ese tipo de utilización? Esas son las preguntas.

El hecho de preguntar ya es un paso muy grande, porque un trabajador o un sindicalista deja de sentirse sin fuerza. Abstenerse y no preguntar por no saber de un tema no puede ser la excusa. Ahora bien, todo se complica más cuando el empleador juega la carta del copyright o secreto industrial.

Aquí llegamos a otro punto crucial, ¿son los DDHH y los derechos laborales un lastre para la innovación y desarrollo tecnológico?

Te respondo con otra pregunta, ¿cómo se han desarrollado los productos farmacéuticos? La Ley sobre Productos Farmacéuticos obedece y respeta los derechos humanos. De la misma manera, una ley sobre inteligencia artificial, que es básicamente una ley sobre software, tiene que protegerlos. ¿Cuál es la diferencia? ¿Por qué los productos farmacéuticos obedecen a un marco jurídico especifico respetando también los derechos humanos? ¿Por qué no otros productos químicos, biológicos o artificiales? Es exactamente lo mismo. Los derechos humanos son un marco sobre el cual otros derechos tienen que emanar o emanan, y son un marco de referencia para que la legislación de una sociedad democrática pueda funcionar de una manera respetuosa.

¿Es posible legislar sobre digitalización e IA, proteger los derechos humanos y ser al mismo tiempo líder en inteligencia artificial –o, cuando menos, no quedarse rezagado en la carrera–? ¿O va a depender un poco de que haya un mínimo de consenso internacional?

Creo que sí. Tiene que haber una armonización de las guías directrices internacionales. Volviendo a los temas farmacéuticos: cuando tú compras una aspirina en Europa, en la caja vienen los ingredientes, los riesgos para la salud y las prohibiciones. Aquí y en China las instrucciones son las mismas. Si logramos hacer eso con millones de productos farmacéuticos, ¿por qué no hemos hecho algo similar con las cuestiones de inteligencia artificial, con los algoritmos?

El problema es que ahora vamos a ver –cuando el Reglamento europeo entre en vigor– el efecto de la falta de transparencia, de la falta de reglamentación real y no ficticia. Es decir, el reglamento europeo es interesante, pero ha dado una especie de protección ficticia. Hoy, la inteligencia artificial está en manos de todo el mundo, sepan o no [los usuarios] las consecuencias, sepan o no cómo usarlo, sepan o no si está prohibido, todo el mundo la usa. La próxima tecnología que nos venga va a ser igual: universal, instantánea –además de disruptiva, como toda tecnología–, porque ChatGPT lo utilizamos de la noche a la mañana, y no creo que la ley de la inteligencia artificial esté equipada para reglamentar algo nuevo que hoy no conocemos. Por eso te digo que es un poco ficticia la protección.

This article has been translated from Spanish.