Escándalo de Privacidad: Gafas Meta Graban tu Intimidad y Humanos en Kenia Revisan Datos para Entrenar la IA de Meta
Investigación revela que Meta utiliza empleados en Kenia para revisar grabaciones íntimas de sus gafas, entrenando la IA con datos personales.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/28117882/pexels-photo-28117882.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Un reciente y perturbador informe, fruto de una profunda investigación de los medios suecos Svenska Dagbladet y Göteborgs-Posten, ha sacudido el mundo tecnológico, revelando la oscura verdad detrás del entrenamiento de la inteligencia artificial de Meta. La “magia” que impulsa las gafas inteligentes Ray-Ban Meta, presentadas como el siguiente paso en la era post-smartphone, parece tener un costo alarmante: nuestra privacidad más íntima.La investigación destapa que, para “enseñar” a su IA, Meta no solo recopila datos masivos de sus usuarios —fotos, vídeos, conversaciones— sino que, en un giro inquietante, estos datos son enviados a empresas externas para su revisión manual. Una de estas empresas, Sama, ubicada en Kenia, emplea a personas que, según sus propios testimonios, observan a diario escenas que van desde el salón de una casa hasta momentos tan privados como ir al baño, mantener relaciones sexuales o introducir contraseñas bancarias.Las gafas Ray-Ban Meta 2, que analizamos recientemente, destacan por su hardware, pero su IA fue señalada como deficiente. Es precisamente esa deficiencia la que Meta busca corregir, utilizando las imágenes y grabaciones de voz de los usuarios. Aunque los términos de uso de Meta AI sugieren un control sobre los datos, la letra pequeña revela que, para que el asistente funcione, se debe ceder voz, texto, imagen y vídeo. Y, lo más crucial, se advierte que “en algunos casos, Meta revisará las interacciones con la IA, incluido el contenido de las conversaciones o los mensajes a la IA. Esta revisión puede ser automatizada o manual”. Si no se acepta, simplemente no se puede usar Meta AI.Cuando la revisión se vuelve manual, la privacidad se desvanece. En Kenia, trabajadores de Sama se encargan de “etiquetar” estos datos. Aunque se supone que los algoritmos difuminan caras y datos sensibles, los empleados han confirmado fallos en este sistema, especialmente en condiciones de iluminación complejas. Esto significa que escenas delicadas, que nunca deberían haber salido de la intimidad del usuario, son visibles. Un empleado comentó: “En algunos vídeos se puede ver a alguien yendo al baño o quitándose la ropa. No creo que lo sepan, porque si no, no grabarían”. Las grabaciones no intencionadas son una constante, como captar a la pareja desnuda o grabar inadvertidamente una conversación privada.Este patrón de recopilación y revisión de datos íntimos no es nuevo para Meta. La compañía ya enfrentó polémicas por escanear mensajes en Messenger e Instagram, y por las duras condiciones de sus moderadores de contenido, expuestos a la violencia y el abuso más extremos. La diferencia ahora es que la fuente de estos datos es directamente lo que ven y oyen sus usuarios a través de sus propios dispositivos. Este “trabajo sucio digital”, a menudo relegado a países en desarrollo como Kenia e India, pone de manifiesto una grave brecha ética. La promesa de la innovación no debería justificar la erosión de la privacidad ni la explotación laboral.La portavoz de Meta, Joyce Omope, se ha limitado a señalar que procesan los datos “de acuerdo con los Términos de Servicio y la Política de Privacidad de Meta AI”. Sin embargo, esta respuesta elude la cuestión central de la revisión manual de contenido íntimo. La implicación es clara: si los usuarios conocieran el alcance real de esta recopilación y revisión de datos, es probable que nadie se atreviera a usar estas gafas, abriendo un debate urgente sobre la ética en el desarrollo de la IA y el valor que le damos a nuestra intimidad en la era digital.