7 Ocasiones en las que la IA no era más que personas trabajando en secreto

7 Ocasiones en las que la IA no era más que personas trabajando en secreto

La magia que muchos perciben en la IA a menudo no es más que el trabajo no reconocido de personas mal pagadas

Por
Es posible que se gane una comisión por los enlaces en esta página.
Iniciar presentación
Imagen para el artículo titulado 7 Ocasiones en las que la IA no era más que personas trabajando en secreto
Imagen: Willyam Bradberry (Shutterstock)

En los últimos años, los avances en inteligencia artificial generativa aparentemente han convertido la “IA” en una palabra de moda que define toda una nueva generación de herramientas con usos claros y reales. Desafortunadamente, no es oro todo lo que reluce.

Publicidad

Muchas empresas ya han comenzado a usar sistemas generadores de imágenes como DALL-E y Stable Diffusion para crear su propio departamento de arte interno de bajo costo (y normalmente a costa de robar sus obras a los artistas reales). El chatbot ChatGPT de Open AI ha hecho a muchos soñar con un futuro de Internet lleno de asistentes digitales sofisticados capaces de dar consejos y escribir textos por ellos. Algunos incluso creen que ChatGPT podría desbancar al mismísimo buscador de Google. Aunque gran parte de la conversación sobre la IA se centra en los datos sin procesar y en el poder de cálculo, sería un error muy grave separar estas herramientas de los humanos.

De hecho, se da la circunstancia de que, desde sus inicios, las supuestas herramientas de IA siempre se han basado en humanos moviendo los hilos entre bambalinas, etiquetando imágenes en silencio, clasificando datos y emitiendo juicios morales y políticos que pueden parecer triviales para los vivos, pero que siguen siendo imposibles para las máquinas.

2023 está a punto de convertirse en un año excepcional para la IA, con nuevas empresas que se apresuran a presentar sus sistemas generativos, y empresas veteranas como Google y Meta que probablemente cedan cada vez más el timón a sus sistemas automatizados. La ola de hype hace que sea aún más importante detenerse un momento y reconocer a los seres humanos que trabajan para hacer realidad la magia y ponen la I en la IA.

Publicidad
Diapositiva anterior
Siguiente diapositiva

2 / 9

Los humanos tras Google Search

Los humanos tras Google Search

Imagen para el artículo titulado 7 Ocasiones en las que la IA no era más que personas trabajando en secreto
Foto: Alphabet Workers Union

Durante sus 25 años de historia, Google ha amasado una fortuna y ha conquistado la capa superior de Internet. Todo ese éxito se debe en gran parte a trabajadores humanos que prueban y supervisan los numerosos algoritmos de búsqueda y clasificación de la empresa.

Publicidad

El funcionamiento adecuado de esas herramientas es fundamental para el éxito del gigante tecnológico, pero las personas responsables de ese trabajo a menudo son externos que carecen del mismo salario y las mismas protecciones que se otorgan a otros empleados de Google a tiempo completo. Según el Sindicato de Trabajadores de Alphabet, a esos externos se les conoce como “trabajadores fantasma”.

Docenas de esos evaluadores invisibles decidieron visibilizarse a principios de febrero alegando que ganaban salarios de miseria, a pesar de haber ayudado a crear algunos de los productos más rentables de Google. En la petición que emitieron, los evaluadores afirmaron que ni ellos ni sus colegas, que trabajan exclusivamente para Google, recibieron beneficios de atención médica, licencia familiar o tiempo libre pagado. “Desde que comenzó mi tiempo como evaluador, hemos perdido la capacidad de trabajar a tiempo completo, nos han impuesto un límite de 26 horas, y hasta nos recortaron nuestro salario por hora”, explicaba Michelle Curtis, calificadora de Google, en un comunicado enviado a Gizmodo. “Eso no impidió que cada vez nos pidieran más: se nos pedía que hiciéramos más trabajo en la misma cantidad de tiempo y cada vez estamos más expuestos a contenidos violentos o inquietante. “Hoy, podría trabajar en Wendy’s y ganar más de lo que gano trabajando para Google”, agregó Curtis.

Publicidad
Diapositiva anterior
Siguiente diapositiva

3 / 9

Los trabajadores keniatas malpagados tras ChatGPT

Los trabajadores keniatas malpagados tras ChatGPT

Imagen para el artículo titulado 7 Ocasiones en las que la IA no era más que personas trabajando en secreto
Imagen: OpenAI

Ni siquiera la nueva generación de IA generativa de vanguardia se libra de supervisores humanos. Una investigación de Time publicada el mes pasado reveló que OpenAI subcontrató trabajadores kenianos, algunos de los cuales cobraban tan solo dos dólares la hora, para filtrar contenido perturbador y crear un filtro de IA que eventualmente se usó para buscar indicios de contenido inmoral o ilegal.

Publicidad

Ese detector de contenido, que ha sido posible solo gracias a revisores humanos, se utiliza para reducir la posibilidad de que la popular herramienta de IA ofrezca contenido dañino a sus usuarios. El detector también ayuda a eliminar las entradas tóxicas de los conjuntos de datos utilizados para entrenar ChatGPT. Los trabajadores que reforzaron a la IA explicaron que debían leer regularmente textos que mostraba relatos vívidos de tortura, suicidio, incesto y abuso sexual infantil. todo para hacer que ChatGPT fuera aceptable para el público. Uno de los trabajadores explicó a Time que sufría pesadillas recurrentes después de leer repugnantes descripciones de zoofilia. Fue una tortura”, sentencia el trabajador.

Publicidad
Diapositiva anterior
Siguiente diapositiva

4 / 9

Los moderadores humanos que hacen Facebook menos miserable

Los moderadores humanos que hacen Facebook menos miserable

Imagen para el artículo titulado 7 Ocasiones en las que la IA no era más que personas trabajando en secreto
Foto: Dan Kitwood (Getty Images)

Durante años, Meta, propietaria de Facebook e Instagram, ha enfrentado oleadas de críticas de todos los lados del espectro político por sus decisiones de moderación de contenido. Meta a menudo responde públicamente a estas críticas alegando que se basa en sistemas de IA aparentemente objetivos y políticamente neutrales para detectar y eliminar contenido dañino.

Publicidad

Puede que esa explicación se vuelva más cierta en los próximos años, pero ahora mismo Meta depende completamente de un ejército de moderadores humanos de contenido repartidos por todo el mundo. Esos trabajadores están expuestos regularmente a los rincones más oscuros de la mente humana y ven videos e imágenes que representan asesinatos brutales, autolesiones y mutilaciones, entre otras lindezas. Todo ello por fracciones de lo que ganan los ingenieros de Facebook a tiempo completo.

Informes anteriores que documentaban la vida de los moderadores de Facebook en Arizona explican como algunos se sintieron obligados a recurrir al sexo y las drogas para hacer frente al estrés del contenido que estaban viendo. En otro caso, algunos de los moderadores de contenido supuestamente comenzaron a creer en algunas de las extravagantes teorías de conspiración que se veían obligados a leer. Meta pagó a los trabajadores traumatizados 52 millones de dólares como parte de un acuerdo en 2020. También prometió mejoras en el lugar de trabajo, pero los empleados dicen que poco ha cambiado sobre el terreno.

Publicidad
Diapositiva anterior
Siguiente diapositiva

Amazon Mechanical Turk

Imagen para el artículo titulado 7 Ocasiones en las que la IA no era más que personas trabajando en secreto
Foto: Alex Wong (Getty Images)

Muchos ejecutivos de tecnología han tratado de minimizar o disfrazar el papel oculto de las personas en la IA. El fundador de Amazon, Jeff Bezos, aprendió la idea de lleno con Mechanical Turk de Amazon. Llamado así por una máquina de juego de ajedrez automática del siglo XVIII que en realidad era solo una persona escondida en una caja, Mechanical Turk es un servicio de pago que los investigadores y los científicos de datos pueden utilizar para completar tareas simples como el etiquetado de imágenes.

Publicidad

Esas tareas de etiquetado son trivialmente fáciles para los humanos pero increíblemente difíciles para una IA. Según los informes, Bezos se refirió a su nuevo negocio en aquel momento como “inteligencia artificial artificial”.

“Normalmente, un humano solicita algo a una computadora y la computadora realiza el cálculo de la tarea”, explicó Bezos en una entrevista con The New York Times en 2017. “Pero las inteligencias artificiales artificiales como Mechanical Turk invierte todo eso. La computadora tiene una tarea que es fácil para un humano pero extraordinariamente difícil para la computadora. Entonces, en lugar de llamar a un servicio informático para realizar la función, llama a un ser humano”. Brillante...

Publicidad
Diapositiva anterior
Siguiente diapositiva

6 / 9

Los moderadores de YouTube que revisan 300 vídeos al día

Los moderadores de YouTube que revisan 300 vídeos al día

Imagen para el artículo titulado 7 Ocasiones en las que la IA no era más que personas trabajando en secreto
Foto: Sean Gallup (Getty Images)

Al igual que Meta, YouTube también emplea un ejército de trabajadores contratados para supervisar los sistemas de detección de IA que mantienen su plataforma relativamente libre de toxicidad.

Publicidad

Los ex-moderadores, algunos de los cuales han presentado demandas contra la empresa, afirman que se esperaba que revisaran de 100 a 300 piezas de contenido por día con una tasa de error esperada de entre el 2 % y el 5 %. Esos vídeos incluían escenas de mutilación de animales, violaciones de niños y asesinato. Los ex moderadores dicen que no recibieron el entrenamiento (o siquiera la advertencia) adecuados para hacer frente a esa carga. En algunos casos, según un ex-moderador de YouTube, los empleadostuvieron que pagar su propio tratamiento médico para lidiar con el trauma provocado por su trabajo.

Publicidad
Diapositiva anterior
Siguiente diapositiva

7 / 9

Los moderadores de TikTok que sufren de PTSD

Los moderadores de TikTok que sufren de PTSD

Imagen para el artículo titulado 7 Ocasiones en las que la IA no era más que personas trabajando en secreto
Foto: Drew Angerer (Getty Images)

Es posible que TikTok no tenga la misma reputación de albergar contenido controvertido que algunas de sus contrapartidas en otras redes sociales. Sin embargo, su cara exterior relativamente limpia es posible gracias a los revisores humanos que actúan como custodios digitales. La plataforma para compartir videos es conocida por su algoritmo de recomendación de inteligencia artificial excepcionalmente bueno, pero son los trabajadores humanos mal pagados que monitorean TikTok los que aseguran que la mayoría de los espectadores la puedan usar sin ver cosas espantosas más allá de la apabullante idiocia humana que rebosa la plataforma.

Publicidad

Uno de esos ex moderadores de contenido presentó una demanda contra la compañía en 2021 alegando que los videos horribles que veían en el trabajo los llevaron a ellos y a otros empleados a desarrollar un trastorno de estrés postraumático. En la demanda se describía como los moderadores podían pasar hasta 12 horas al día viendo contenido. El gran volumen de video subido a la plataforma significa que los revisores supuestamente solo tienen alrededor de 25 segundos para ver cada pieza. En algunos casos, los trabajadores tenían que ver de tres a diez videos simultáneamente para mantener el ritmo.

Publicidad
Diapositiva anterior
Siguiente diapositiva

8 / 9

Los humanos tras el asistente de Facebook Messenger

Los humanos tras el asistente de Facebook Messenger

Imagen para el artículo titulado 7 Ocasiones en las que la IA no era más que personas trabajando en secreto
Captura de pantalla: Meta

El rápido aumento de los chatbots de IA y de asistentes más rudimentarios como Siri ha hecho que la interacción con los sistemas de IA sea una parte cada vez más común de la vida en línea. Si bien el usuario confía en que el asistente y los chatbots con los que están hablando son, de hecho, máquinas, no siempre fue así. En 2015, Facebook lanzó brevemente su propio competidor de asistente virtual para Messenger llamado “M”.

Publicidad

El asistente digital de Facebook ayudaba a los usuarios a organizar entregas, reservar boletos para espectáculos, hacer reservas y realizar otras tareas, todo con una eficiencia asombrosa. Resultó que M no era realmente una IA súper avanzada en absoluto, sino que consistía principalmente en un equipo de empleados humanos que respondían preguntas. Si bien hubo software involucrado en algún nivel, estas revisiones humanas trabajaron junto con la IA para garantizar que las solicitudes de los usuarios se cumplieran incluso si la IA no podía completar la tarea.

Los usuarios al otro lado no sabían si estaban siendo asistidos por un humano o un bot. “Está impulsado principalmente por personas”, dijo el ex director de tecnología de Facebook, Mike Schroepfer, en una entrevista a Vox en aquel momento. “Pero esas personas están efectivamente respaldadas por IA”. Facebook finalmente cerró M en 2018 después de atender a alrededor de 2.000 usuarios.

Publicidad