Por 2 dólares la hora, describía pornografía extrema y violencia para entrenar IA

"Cuando veía a alguien desnudo, ni siquiera sentía nada"

18 de marzo de 2026 a las 09:08h
Por 2 dólares la hora, describía pornografía extrema y violencia para entrenar IA
Por 2 dólares la hora, describía pornografía extrema y violencia para entrenar IA

En una sala pequeña de Nairobi, bajo el zumbido constante de ventiladores que apenas combaten el calor, Michael Geoffrey miraba lo impensable. Ocho horas diarias. Miles de imágenes. Contenido que ningún ser humano debería ver con tanta frecuencia. Pornografía extrema, violencia, abusos. Y cada escena, cada segundo, debía describirlo con precisión. Palabra por palabra. Detalle a detalle. Por dos dólares la hora.

El precio oculto de la inteligencia artificial

La inteligencia artificial que hoy nos sorprende con respuestas fluidas, creadoras de imágenes y asistentes conversacionales, no nació de la nada. Detrás de sus respuestas pulidas hay un proceso invisible, oscuro y profundamente humano. Uno que depende de trabajadores como Michael, repartidos por países del sur global, que limpian, clasifican y describen el contenido más perturbador de internet para que las máquinas aprendan a reconocerlo… y a evitarlo.

Sama, una empresa con sede en San Francisco, se presenta como "el ejemplo perfecto de la IA ética". Esa es su propia definición. Pero para Michael Geoffrey, que trabajó para ellos, ese eslogan suena como una burla. Revisar contenido extremo durante jornadas interminables no es ética. Es explotación. La paradoja es brutal tecnologías que prometen progreso humano se construyen sobre el sufrimiento silenciado de otros humanos.

"llegó un punto en el que mi cuerpo ya no respondía. Cuando veía a alguien desnudo, ni siquiera sentía nada" - Michael Geoffrey, secretario de la Data Labelers Association de Kenya

Las consecuencias no tardaron en aparecer. Insomnio. Ansiedad. Dificultad para conectar con su pareja. La mente, saturada de imágenes traumáticas, dejó de responder como antes. La sexualidad, algo íntimo y vital, se volvió opaca, distante. Michael no era solo un empleado. Era un escudo humano frente al abismo digital.

El doble trabajo del trauma

Pero su jornada no terminaba allí. Por las noches, Michael trabajaba en una plataforma de chatbots sexuales impulsados por inteligencia artificial. Allí, simulaba identidades hombre, mujer, hetero, homosexual. Mantenía conversaciones íntimas, ficticias pero emocionalmente cargadas, con usuarios de todo el mundo. Esas interacciones, confesó, también se usaban para entrenar modelos de IA. No solo describía el horror. Lo recreaba. Lo vivía en segunda persona.

¿Qué queda de una persona después de meses viendo lo peor de la humanidad y fingiendo deseos que no siente? Poco. El cuerpo se endurece. El alma se entumece. Y el sistema apenas lo nota. Porque para la cadena global de IA, estos trabajadores son invisibles. Mal pagados. Reemplazables.

Subcontratación y silencio cómplice

Empresas como Sama o Remotasks filial de Scale AI operan en la sombra. Son contratadas por gigantes tecnológicos OpenAI, Google, Meta. Estas plataformas delegan el trabajo más delicado, el más traumático, en terceros. Así se lavan las manos. La responsabilidad se diluye en una cadena de subcontratas que termina en Nairobi, Mombasa o Kampala.

Scale AI, fundada por Alexandr Wang, quien hoy lidera el desarrollo de IA en Meta, es una de las más importantes en este mercado. Remotasks, su filial, también ha sido señalada por retrasos en pagos y salarios incumplidos. Se dice que algunos trabajadores reciben menos de lo prometido. O nada. En un sistema que se jacta de transparencia algorítmica, los salarios y condiciones laborales son una caja negra.

  • Las tarifas giran entre 1,3 y 2 dólares la hora, según reportajes.
  • Los trabajadores revisan contenido de abuso infantil, violencia extrema y escenas sexuales forzadas.
  • El impacto psicológico es severo depresión, ansiedad, trastornos del sueño.
  • Muchos no tienen acceso a apoyo psicológico ni seguros médicos.

Levantar la voz desde el fondo

Frente al silencio, ha surgido una resistencia. Michael Geoffrey ahora es secretario de la Data Labelers Association de Kenya, una organización que busca dar visibilidad a estos trabajadores. No piden fama. Piden condiciones dignas. Salarios justos. Protección mental. Derechos.

También ha surgido African Content Moderators and Tech Workers, un colectivo que exige recursos para la salud mental y una regulación ética real. No retórica corporativa. Acciones concretas. Porque la IA ética no puede construirse sobre la explotación de mentes vulnerables.

Algunos trabajadores ya no dudan en decirlo con todas las letras esto es una forma de esclavitud moderna. No con cadenas, sino con contratos precarios, salarios de miseria y silencio forzado. La diferencia es que esta vez, las víctimas están en África, y los beneficiarios, en Silicon Valley.

La inteligencia artificial no es neutral. Ni sus efectos. Detrás de cada modelo que reconoce el abuso, hay alguien que lo vio. Y lo describió. Y pagó un precio. El progreso no puede seguir siendo un monólogo de los privilegiados. El coste humano ya no debe estar oculto en el código.

Sobre el autor
Redacción
Ver biografía