Inicio - Ciencia y Tecnología - OpenAI se aprovechó de la explotación laboral en Kenia para mejorar ChatGPT

OpenAI se aprovechó de la explotación laboral en Kenia para mejorar ChatGPT

ChatGPT, OpenAI

Una investigación de Time ha dejado en evidencia las prácticas de OpenAI para mejorar ChatGPT invirtiendo lo más mínimo posible. En concreto, la empresa habría recurrido a empleados subcontratados de Kenia cuyo sueldo máximo es de apenas $2 dólares por hora. La misión de estos trabajadores, según el reporte, es lograr que ChatGPT sea menos tóxico.

ChatGPT, desde su lanzamiento, ha sido criticado por tener sesgos y cierto nivel de toxicidad. Después de todo, la herramienta ha basado su aprendizaje en millones de textos realizados por humanos y disponibles en internet. Por lo tanto, también heredó lo malo.

Ahora bien, antes de lanzar ChatGPT, en OpenAI sabían muy bien que enfrentarían este problema. También, que sería muy complicado resolverlo dada la complejidad que resulta identificar fragmentos inapropiados en un texto y eliminarlos de la fuente de aprendizaje.

Pese a lo anterior, en OpenAI se asignaron la tarea de desarrollar un sistema de seguridad basado en inteligencia artificial. Su misión, básicamente, es detectar lenguaje tóxico de una manera mucho más eficiente que los humanos. De haber creado un software de filtración gestionado por personas, habrían tardado décadas en terminar.

La nueva inteligencia artificial de OpenAI, entonces, debía nutrirse de cualquier comentario o palabra inadecuada. Time señala que la herramienta aprendía de textos etiquetados como discurso de odio, violencia y abuso sexual. Posteriormente, el software fue integrado a la fuente de aprendizaje para filtrar el contenido antes de llegar a ChatGPT.

En este punto es donde surge la vergonzosa práctica de OpenAI. Para etiquetar un texto como inapropiado, obligatoriamente debe ser analizado por humanos. La compañía, desde noviembre de 2021, ha estado subcontratando a empleados de Kenia para que etiqueten «decenas de miles de fragmentos de texto».

Para facilitar el proceso, OpenAI se apoyó en Sama, una empresa especializada en inteligencia artificial con sede en San Francisco (California). Entre sus diferentes servicios, ofrece el de encontrar trabajadores de Kenia, India y Uganda para las compañías de Silicon Valley que requieran mejorar —o potenciar— alguna herramienta de IA, como ChatGPT. Curiosamente, esos tres países comparten algo en común: los salarios en el sector de IT, en comparación con lo que se paga en Estados Unidos, son ridículamente bajos.

Los ridículos sueldos son solo una parte del problema

ChatGPT, OpenAI, Inteligencia artificial, IA

Sama, siempre según Timepagó entre $1,32 y $2 dólares la hora a los empleados que se involucraron en el sistema de OpenAI. La cifra final dependía de la eficiencia y antigüedad del trabajador.

OpenAI, por su parte, reconoció que los empleados de Kenia participaron en el desarrollo de una tecnología que, tiempo más tarde, se integró en ChatGPT.

«Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos arduamente para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino. Clasificar y filtrar texto e imágenes dañinas es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido perjudicial.

Pero el reducido sueldo que obtienen estos empleados no es lo único preocupante. Gran parte de los textos que analizan provienen de lugares funestos de internet. Esos que ni siquiera están a la vista de los buscadores tradicionales como Google o Bing. Así pues, quedaron expuestos a leer descripciones detalladas de situaciones de abuso sexual infantil, homicidios, suicidios, tortura e incesto.

Evidentemente, algunos resultaron con afectaciones mentales muy serias. Un trabajador comentó a Time haber sufrido visiones desagradables tras leer ese tipo de textos. «Lees una serie de declaraciones durante toda la semana. Para cuando llega el viernes, estás perturbado por pensar en esa imagen», comentó.

Se sabe, además, que Sama se encuentra trabajando en un proyecto alterno con OpenAI que no tiene relación con ChatGPT. Aparentemente, sus trabajadores deben buscar imágenes de abuso sexual y violencia para etiquetarlas y entregarlas a OpenAI. De momento, eso sí, no está claro cuál herramienta las requiere. Un representante se limitó a decir, nuevamente, que es un paso necesario para mejorar la seguridad de su tecnología.

Fuente: hipertextual.com

Más noticias...

Empresas de EEUU y China se dan la mano por un buen motivo: crear el primer estándar global de IA generativa

La tensión que sostienen los Gobiernos de EEUU y China en los ámbitos geopolítico y geoestratégico no …

A %d blogueros les gusta esto: