Tu próximo sueldo ya está decidido: un algoritmo espía revela a las empresas cuánto estás dispuesto a cobrar.
Sistemas de inteligencia artificial analizan tus datos para calcular el sueldo mínimo que aceptarías, generando brechas salariales invisibles.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/5198201/pexels-photo-5198201.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
El secreto peor guardado de Recursos Humanos: tu salario ya no lo decides tú
Estamos familiarizados con los precios dinámicos. El coste de un vuelo que fluctúa según la hora o el dispositivo desde el que buscas, o una tarifa de Uber que se dispara en un día de lluvia. Las empresas llevan años utilizando nuestros datos para ajustar precios en tiempo real. Ahora, esa misma lógica se ha infiltrado en un terreno mucho más personal y delicado: tu salario. Este fenómeno, bautizado como "salario de vigilancia", ya no es exclusivo de la 'gig economy'. Se está expandiendo silenciosamente a sectores como la sanidad, el comercio minorista y la atención al cliente, condicionando desde aumentos hasta el salario base que te ofrecen en una entrevista.
¿Cómo funciona el algoritmo que fija tu sueldo?
El mecanismo es tan simple como inquietante. Las empresas implementan herramientas de inteligencia artificial que rastrean y recopilan una enorme cantidad de datos sobre los trabajadores, tanto actuales como potenciales. Esta información proviene de fuentes públicas, redes sociales e historiales laborales. Analizan con qué frecuencia aceptas turnos, la rapidez con la que respondes a una oferta, tus empleos anteriores e incluso si tienes deudas en tu tarjeta de crédito o préstamos pendientes.
Con este perfil digital, el sistema calcula con una precisión asombrosa cuál es el salario mínimo que una persona estaría dispuesta a aceptar. Y eso es exactamente lo que le ofrecen. Nina DiSalvo, directora de políticas en Towards Justice, advierte que "algunos sistemas utilizan señales asociadas a la vulnerabilidad financiera para inferir el salario mínimo que un candidato podría aceptar". El resultado es una brecha salarial invisible: dos personas realizando el mismo trabajo pueden recibir remuneraciones muy diferentes, sin que ninguna lo sepa.
Un modelo que castiga la necesidad
El "salario de vigilancia" no solo afecta a quienes buscan empleo. Una vez dentro de la empresa, la monitorización continúa. El sistema ajusta la remuneración futura basándose en el comportamiento del empleado. ¿Aceptas turnos de última hora? ¿Trabajas más horas de las estipuladas? ¿Tus finanzas personales parecen deteriorarse? El algoritmo interpreta estas acciones como una señal de necesidad y dependencia.
Principales riesgos de esta práctica:
- Discriminación silenciosa: El sistema puede perpetuar y amplificar sesgos existentes, pagando menos a quienes más necesitan el trabajo.
- Falta de transparencia: El trabajador desconoce qué datos se usan para calcular su salario, eliminando cualquier poder de negociación.
- Precariedad laboral: Al ajustar el pago a la baja, se fomenta un entorno de inseguridad y vulnerabilidad económica.
Un análisis del Washington Center for Equitable Growth sobre 500 empresas de IA para gestión laboral identificó a 20 proveedores cuyos productos presentan un alto riesgo de generar esta discriminación salarial. De ellos, 16 se integraban directamente con las plataformas de nóminas, dándoles acceso ilimitado a los datos más sensibles de cada empleado.
La opacidad como parte del diseño
Uno de los aspectos más alarmantes es que estos algoritmos son, en su mayoría, cajas negras. Ni los empleados, ni los sindicatos, ni siquiera los reguladores tienen acceso a su lógica interna. Joe Hudicka, autor de 'La revolución de los ecosistemas de IA', lo describe como un "techo de vigilancia salarial de hierro", a diferencia del "techo de cristal", este es completamente opaco. Un estudio del Cornell University's Worker Institute reveló que el 42% de los trabajadores de plataformas digitales en Nueva York habían cobrado menos de lo acordado, sin un mecanismo claro para reclamar. La razón: su actividad es gestionada por algoritmos que no pueden ser auditados.
La respuesta legal que empieza a tomar forma
Afortunadamente, los legisladores están empezando a reaccionar. En Estados Unidos, el estado de Colorado está impulsando una ley para regular el uso de herramientas algorítmicas en la fijación de salarios. En Europa, la respuesta también se está consolidando.
En España, la conocida 'Ley Rider' ya incluía una modificación del Estatuto de los Trabajadores que exige a las empresas informar sobre los parámetros de los algoritmos que afectan a las condiciones laborales. Del mismo modo, la nueva normativa Europea de Transparencia Retributiva busca atajar estas disparidades, exigiendo que a trabajo de igual valor corresponda un salario igual. La batalla por un sueldo justo ha entrado en una nueva era, una donde el código informático tiene tanto poder como un director de Recursos Humanos.