Verdad, Inspiración, Esperanza

La empresa matriz de ChatGPT contrató a kenianos a bajo costo para revisar contenido explícito

Neil Campbell
Neil vive en Canadá y escribe sobre sociedad y política.
Published: 31 de enero de 2023
Foto de archivo de enero de 2023 en la que aparecen pantallas con los logotipos de OpenAI y ChatGPT. La revista Time descubrió que OpenAI empleaba a una empresa de San Francisco que pagaba a trabajadores kenianos 1,32 dólares la hora por revisar contenidos sexualmente gráficos y violentos y perturbadores durante el desarrollo de un modelo de autocensura que haría que las salidas fueran aptas para la inversión de Silicon Valley. (Imagen: LIONEL BONAVENTURE/AFP vía Getty Images)

OpenAI, la empresa propietaria del moderno generador de texto de inteligencia artificial ChatGPT, pagó a los trabajadores en Kenia tan solo $1.32 por hora para realizar el trabajo manual requerido para construir un módulo de autocensura que obligaría a los resultados de la IA a ser «menos tóxicos».

Los trabajadores debían leer manualmente cientos de instancias de contenido vulgar, violento, obsceno y sexualmente gráfico.

Un artículo del 18 de enero publicado en la revista Time explicó que durante el desarrollo de ChatGPT, OpenAI se topó con un problema en el que «fue difícil de vender, ya que la aplicación también era propensa a soltar comentarios violentos, sexistas y racistas».

Time explicó que el problema surgió porque el bot fue entrenado «en cientos de miles de millones de palabras extraídas de Internet».

Aunque Time intenta restar importancia a las partes más oscuras de Internet como simplemente «repletas de toxicidad y prejuicios», el artículo afirma que el trabajo diario de los kenianos involucraba filtrar contenido personalmente que «describía situaciones en detalles gráficos como abuso sexual infantil, bestialidad, asesinato, suicidio, tortura, autolesión e incesto”.

OpenAI empleó una empresa llamada Sama, con sede en San Francisco y que afirma haber «ayudado a 50.000 personas a salir de la pobreza».

El medio declaró que en la producción de su artículo, Time «revisó cientos de páginas de documentos internos de Sama y OpenAI, incluidas las nóminas de los trabajadores, y entrevistó a cuatro empleados de Sama que trabajaron en el proyecto».

Todos los trabajadores hablaron bajo la promesa del anonimato “por preocupación por su sustento”.

Lo que la brigada keniana de Sama contribuyó a la creación fue lo que Time describió como un «mecanismo de seguridad adicional impulsado por IA» que serviría como un sistema de autocensura al estilo de las redes sociales de Big Tech.

“Para construir ese sistema de seguridad, OpenAI tomó una hoja del libro de jugadas de las compañías de redes sociales como Facebook, que ya habían demostrado que era posible construir IA que pudieran detectar lenguaje tóxico como el discurso de odio para ayudar a eliminarlo de sus plataformas”, dijo el artículo indicado.

Y continuó: «La premisa era simple: alimentar una IA con ejemplos etiquetados de violencia, discurso de odio y abuso sexual, y esa herramienta podría aprender a detectar esas formas de toxicidad en la naturaleza». 

Agregando: «Ese detector se integraría en ChatGPT para verificar si se estaba haciendo eco de la toxicidad de sus datos de entrenamiento y filtrarlo antes de que llegue al usuario».

En una declaración a Time proporcionada por OpenAI para su artículo, la compañía afirmó que un módulo de autocensura y armonización del habla era “un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino”.

Las consecuencias de someter a los seres humanos a la lectura de contenido vil y profano durante horas todos los días se manifestaron plenamente en los empleados de Sama, descubrió Time.

El medio citó a un hombre diciendo que «sufría de visiones recurrentes» después de que le hicieran leer una escena gráficamente detallada que involucraba bestialidad y abuso sexual infantil.

“Leerás una serie de declaraciones como esa durante toda la semana. Para cuando llega el viernes, estás perturbado por pensar en esa imagen”, dijo el hombre.

“Tres empleados le dijeron a TIME que se esperaba que leyeran y etiquetaran entre 150 y 250 pasajes de texto por turno de nueve horas. Esos fragmentos pueden variar desde alrededor de 100 palabras hasta más de 1000”, señaló el artículo.

Los cuatro empleados dijeron que no solo estaban asustados por el trabajo, sino que Sama les ofreció poco apoyo más allá de la oferta de sesiones con consejeros de «bienestar», que no pudieron aprovechar debido a que estaban motivados para completar más etiquetas por hora de trabajo cada turno.

Time afirmó que los efectos secundarios fueron tan severos que Sama se vio obligada a cancelar su contrato con Open AI ocho meses antes, a pesar de que valían 200.000 dólares y la carga de trabajo se dividió entre aproximadamente tres docenas de trabajadores a quienes no se les pagaba más de $2 por hora.

Time señaló: «Los contratos establecían que OpenAI pagaría una tarifa por hora de $12.50 a Sama por el trabajo, que era entre seis y nueve veces la cantidad que los empleados de Sama en el proyecto se llevaban a casa por hora».

Al personal se le pagó $70 adicionales por mes como un «bono» por estar expuesto a contenido obsceno.

Un portavoz de Sama le dijo a Time que solo se esperaba que los trabajadores completaran 70 etiquetas por turno y podrían ganar hasta $3.75 por hora.