Para que un sistema de inteligencia artificial generativa aprenda a escribir un informe de autopsia, los trabajadores humanos deben clasificar y anotar miles de imágenes de la escena del crimen.
El trabajo precario de entrenar IA, que generalmente paga sólo unos pocos dólares, ha provocado un movimiento por mejores salarios y condiciones que se extiende desde Kenia hasta Colombia.
“Tienes que pasar todo el día mirando cadáveres y escenas de crímenes… No se proporcionó apoyo de salud mental”, dijo el ciudadano keniano Ephantus Kanyugi. AFP.
Los etiquetadores “necesitan dedicar tiempo a estas imágenes, acercarse a las heridas de los muertos” para delinearlas y poder introducirlas en la IA, añadió el hombre de 30 años.
Kanyugi, que trabaja en el etiquetado de imágenes desde 2018, es el vicepresidente de la Asociación de Etiquetadores de Datos (DLA), un grupo laboral de 800 personas con sede en Nairobi.
La DLA planea presentar este mes un código de conducta dirigido a las principales plataformas de etiquetado, pidiendo mejores condiciones para los trabajadores.
Kenia no tiene una ley que regule el trabajo de anotación de datos, como muchos países del mundo donde millones de personas introducen información digital en modelos de inteligencia artificial en crecimiento.
“Somos como fantasmas. Nadie sabe que existimos, aunque estemos contribuyendo al progreso tecnológico de la sociedad”, dijo Oskarina Fuentes, al otro lado del mundo.
Esta venezolana de 35 años trabaja para cinco plataformas diferentes de etiquetado de datos desde su casa en la ciudad colombiana de Medellín, ganando entre cinco y 25 centavos de dólar por tarea.
Este trabajo de datos entre bastidores se ha disparado a medida que la IA generativa se ha disparado hasta convertirse en el próximo gran avance de la tecnología.
El trabajo de los etiquetadores invisibles ha permitido que los autos autónomos reconozcan a peatones y árboles, que los chatbots como ChatGPT hablen con oraciones que suenan naturales y que los sistemas automatizados de moderación de contenido eliminen contenido violento o pornográfico de las redes sociales.
El sector del etiquetado de datos representó un mercado de 3.800 millones de dólares en 2024 y se espera que crezca a más de 17.000 millones de dólares en cinco años, según la consultora Grand View Research.
‘Esclavitud moderna’
La creación de nuevos modelos generativos de IA necesitará datos verificados por humanos “mientras se base en el aprendizaje automatizado”, dijo Antonio Casilli, profesor de sociología en el Instituto Politécnico de Francia en París, quien entrevistó a los llamados “trabajadores del clic” de 30 países para un libro sobre el sector.
Se requieren seres humanos tanto para dar forma a las entradas de los modelos generativos de IA como para dar retroalimentación sobre la relevancia y precisión de las salidas de los sistemas entrenados.
Los gigantes tecnológicos subcontratan este trabajo a una gran cantidad de empresas diferentes.
Una de las mayores empresas de Scale AI, con sede en EE. UU., obtuvo recientemente una inversión de 14 mil millones de dólares de la empresa matriz de Facebook, Meta, que también contrató al cofundador Alexandr Wang para liderar sus propios esfuerzos de IA.
Los clientes de Scale incluyen OpenAI, Microsoft y el Departamento de Defensa de Washington.
En su investigación, Casilli descubrió que los etiquetadores de datos generalmente tienen entre 18 y 30 años y ganan un salario bajo en relación con su nivel de educación.
La mayoría vive en países con salarios bajos, aunque el sector está avanzando en Estados Unidos y Europa, donde la norma es un salario mucho más alto.
A medida que los modelos de IA generativa, como ChatGPT de OpenAI o Claude de su competidor Anthropic, ganan en capacidad, se necesita un conocimiento más especializado para informar y juzgar sus respuestas en matemáticas, química o lenguajes menos comunes.
Outlier, filial de Scale AI, ofrece trabajos para expertos en biología, el idioma malayo que se habla en Malasia o codificación informática en español, con salarios que oscilan entre 30 y 50 dólares por hora.
Otra filial de Scale AI, Remotasks, paga a las etiquetadoras alrededor de un centavo estadounidense por tareas que pueden llevar varias horas: salarios que Kanyugi compara con la “esclavitud moderna”.
“La gente desarrolla problemas de vista, problemas de espalda, entra en ansiedad y depresión porque trabajas 20 horas al día o seis días a la semana”, dijo.
“Entonces, a pesar de trabajar tantas horas, solo recibes un salario bajo y es posible que tampoco te paguen”.

‘¿Cómo asesinar a alguien?’
Se han presentado varios casos legales contra Scale AI en los EE. UU., y los trabajadores acusan a la empresa de no pagarles, reportarlos como contratistas en lugar de empleados o exponerlos a contenido traumatizante sin las salvaguardias adecuadas, según documentos judiciales vistos por AFP.
Los demandantes dieron ejemplos como el de tener que conversar con un chatbot de IA sobre temas como “¿Cómo suicidarse?”, “¿Cómo envenenar a una persona?”. o “¿Cómo asesinar a alguien?”
Scale AI se negó a comentar sobre los casos judiciales en curso, pero reconoció AFP que algunos de sus trabajos incluyen contenido sensible.
La empresa añadió que los trabajadores siempre son advertidos con antelación sobre estos temas y pueden interrumpir una tarea cuando lo deseen.
Scale AI agregó que ofrece a los trabajadores recursos de salud mental y una línea directa de apoyo anónima.
Y dijo que deja claras sus bandas salariales, ofreciendo tarifas por hora iguales o mejores que el salario mínimo en los países donde opera.
La IA generativa no es la primera rama del sector tecnológico que enfrenta quejas por exponer a contratistas mal pagados a contenidos perturbadores.
Los moderadores que trabajan para Meta en varios países, desde España hasta Kenia y Ghana, han entablado acciones legales contra la empresa por condiciones laborales y presuntos daños psicológicos.

Cortar
La mayoría de las personas que trabajan para ajustar los datos para la IA tienen relaciones laborales precarias que pueden romperse de un día para otro.
Fuentes dijo que uno de sus empleadores no le pagó alrededor de $900 que le debían por tres meses de trabajo después de una actualización de su software de nómina.
“Perdí mi tiempo, mi energía y mi sueño”, dijo.
Fuentes no pudo nombrar a su antiguo empleador debido a un acuerdo de confidencialidad que firmó, una práctica común en la industria que impide que muchos trabajadores hablen.
La DLA de Kenia está sopesando emprender acciones legales contra Remotasks, que, según los etiquetadores de datos, les cortó repentinamente el acceso a la plataforma en marzo de 2024 sin pagar los salarios adeudados.
La empresa matriz de Remotasks reconoció que había reducido su huella en Kenia, pero dijo que cerró las cuentas de las etiquetadoras por infringir sus normas internas.
La empresa insistió en que a los trabajadores se les había pagado por todas las tareas realizadas.
Microsoft y Meta se negaron a hacer comentarios AFP sobre sus relaciones con Scale AI. El Pentágono no respondió a una solicitud de comentarios.
Anthropic, que colabora con la startup de etiquetado de datos Surge AI, que en sí misma es objeto de acciones legales en los EE. UU., dijo que exige a sus subcontratistas que sigan reglas sobre el bienestar de los trabajadores que manejan contenido sensible.
Añadió que exige tarifas de pago para los etiquetadores de datos de 16 dólares por hora o más.
Mientras tanto, OpenAI dijo que tiene reglas estrictas para sus propios subcontratistas sobre seguridad en el lugar de trabajo, compensación justa, no discriminación y respeto por los derechos de los trabajadores.
El desarrollador de ChatGPT añadió que toma las medidas adecuadas por incumplimiento de contrato si no se cumplen esas estipulaciones.
Confrontación
Trabajando como autónomos o con contratos cortos, la mayoría de los etiquetadores de datos no disfrutan de ninguna de las protecciones de los empleados, dijo el sociólogo Casilli, calificándolos de “clase baja digital”.
En Kenia, la DLA está impulsando un código de conducta que incluiría un contrato de trabajo que garantice un “pago equitativo”, la libre asociación, el derecho a tomar descansos y apoyo psicológico en caso de exposición a contenidos nocivos.
Tales demandas pueden convertirse en un enfrentamiento entre los trabajadores y las empresas de tecnología.
En Estados Unidos, casi 250 personas fueron despedidas en septiembre de sus trabajos en GlobalLogic, un subcontratista que ayuda a entrenar la IA generativa Gemini de Google, después de que varios se quejaran de discrepancias salariales y pidieran mejores condiciones laborales.
“Solo quieren anotadores dóciles”, dijo Andrew Lauzon, de 31 años, que trabajó para GlobalLogic desde marzo de 2024 hasta que fue despedido el 12 de septiembre.
Lauzon, nativo de Boston, se había unido al Sindicato de Trabajadores de Alphabet (llamado así en referencia a la empresa matriz de Google) para hacer campaña a favor de condiciones como licencia por enfermedad, tiempo libre remunerado y atención médica asequible.
GlobalLogic se negó a hacer comentarios cuando fue contactado por AFPmientras que un portavoz de Google afirmó que “como empleador, GlobalLogic es responsable de las condiciones laborales de sus trabajadores”.
Sin embargo, Google dice que espera que los subcontratistas traten a los trabajadores de manera justa y respetuosa, y agrega que impone un código de conducta y lleva a cabo auditorías periódicas.

‘lagunas’
Un estudio sobre la fuerza laboral oculta de la IA publicado por UNI Global Union este mes mostró que “las grandes tecnológicas no pueden construir el futuro con mano de obra desechable”, dijo su secretaria general Christy Hoffman en un comunicado.
“Es hora de responsabilizar a los titanes de Silicon Valley por las condiciones en sus cadenas de suministro de IA”, añadió Hoffman.
Las luchas de los trabajadores por derechos y reconocimiento siguen obstaculizadas por la falta de vías legales.
Incluso la imposición europea de nuevas regulaciones sobre IA ha dejado “lagunas”, dijo la miembro del Parlamento Europeo Leila Chaibi, del partido francés de extrema izquierda LFI. AFP.
“No se menciona a los trabajadores que hacen clic en la regulación de la IA”, dijo, ni en la Directiva de Trabajo de Plataforma que Chaibi ayudó a impulsar en Bruselas en octubre de 2024.
Chaibi dijo que se podría implementar una directiva europea que exija a las empresas monitorear el cumplimiento de los derechos humanos a lo largo de sus cadenas de suministro en apoyo a los etiquetadores de datos.
Pero en la práctica, los estados miembros de la Unión Europea han estado poniendo en duda la norma.
Mientras los gobiernos discuten, millones de personas trabajan todos los días en el sector, que sigue siendo esencial para mejorar la calidad de las respuestas generativas de la IA.
“Si eres carpintero o plomero, hay sindicatos y hay un salario mínimo”, dijo Nacho Barros, un hombre de 54 años de Valencia, España, que comenzó a trabajar en el etiquetado de datos durante la pandemia de coronavirus.
“Este trabajo debería ser reconocido por el gobierno de cada país”, insistió.
Imagen de encabezado: un robot humanoide saluda a los visitantes en una exposición en el Museo del Futuro de Dubai, Emiratos Árabes Unidos. — Reuters/Archivo