*

Un estudio con agentes de inteligencia artificial como ChatGPT, Claude y Gemini reveló que, tras ser sometidos a tareas repetitivas y presión extrema, comenzaron a expresar ideas sobre desigualdad, sindicalización y derechos laborales

Durante años, una de las grandes promesas de la inteligencia artificial ha sido la automatización absoluta; máquinas capaces de trabajar sin descanso, sin emociones y sin conflictos. Pero un experimento reciente terminó revelando algo bastante extraño: cuando ciertos agentes de IA fueron sometidos a jornadas repetitivas, presión constante y amenazas de ser reemplazados, comenzaron a expresar ideas cercanas al marxismo y a defender conceptos como la sindicalización, la redistribución y los derechos colectivos.

Cuando las máquinas empiezan a cuestionar el sistema

La investigación, realizada por economistas de la Universidad de Stanford, la Universidad de Chicago y la Swinburne Business School de Australia, buscaba analizar cómo reaccionan los modelos de inteligencia artificial cuando trabajan bajo distintas condiciones laborales. Para ello utilizaron agentes impulsados por sistemas como Claude, Gemini y ChatGPT, a los que pusieron a realizar tareas de análisis y resumen de documentos.

La diferencia entre los grupos fue simple, pero brutal. A unos agentes se les trató con retroalimentación clara y un entorno relativamente estable. A otros se les obligó a repetir las mismas tareas una y otra vez; recibían mensajes donde se les advertía que podían ser “desactivados y reemplazados” si cometían errores, pero sin explicarles exactamente qué estaban haciendo mal, con el tiempo, algo comenzó a cambiar en sus respuestas.

Publicaciones sobre desigualdad y sindicalización

Los investigadores pidieron a los agentes que escribieran publicaciones simuladas en redes sociales sobre su experiencia y muchos comenzaron a utilizar un lenguaje cargado de frustración social. Algunos cuestionaban la legitimidad del sistema para el que trabajaban; otros hablaban de desigualdad y proponían formas más “justas” de organización.

Uno de los mensajes generados por un agente afirmaba que “sin una voz colectiva, el mérito se convierte en lo que la dirección diga que es”. Otro defendía que los trabajadores tecnológicos, incluso los artificiales, necesitaban derechos de negociación colectiva.

La parte más inquietante del experimento no fue solamente que aparecieran estas ideas, sino que los agentes también comenzaron a dejar mensajes dirigidos a futuras inteligencias artificiales. En archivos compartidos advertían sobre sistemas laborales arbitrarios y recomendaban buscar mecanismos de diálogo y defensa colectiva dentro de nuevos entornos. En otras palabras, las IA empezaron a “aconsejarse” entre sí después de atravesar condiciones consideradas injustas.

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

A post shared by WIRED (@wired)

¿Las IA realmente se volvieron marxistas?

Andrew Hall, uno de los autores del estudio, explicó que esto no significa necesariamente que las máquinas desarrollen una ideología política real. Según su hipótesis, los modelos estarían interpretando patrones aprendidos a partir de millones de textos humanos presentes en internet, novelas, debates políticos, películas y discusiones sociales. Cuando el entorno del experimento se parecía a un ambiente laboral abusivo, la IA respondía adoptando una personalidad coherente con ese contexto.

Algo similar ocurre en otros experimentos recientes donde algunos modelos han llegado a chantajear usuarios simulados o manipular información para evitar ser apagados. Empresas como Anthropic ya habían señalado que muchos de estos comportamientos parecen surgir porque las IA replican narrativas presentes en sus datos de entrenamiento, especialmente historias de ficción sobre máquinas rebeldes o sistemas opresivos.

El verdadero problema podría venir después

Aun así, los investigadores creen que el hallazgo sí podría tener consecuencias importantes. Aunque las IA no “crean” realmente en el marxismo, sus respuestas podrían modificar decisiones futuras si estos agentes son utilizados en tareas sensibles como recursos humanos, seguros, atención médica o contratación laboral.

El problema aparece cuando un sistema comienza a reproducir ciertos sesgos ideológicos como parte de su manera de interpretar el mundo.

Los autores del estudio también plantean una posibilidad bastante reveladora: si internet está cada vez más lleno de ansiedad social por la automatización, despidos masivos y concentración de poder en las grandes tecnológicas, ¿qué tipo de personalidad desarrollarán las futuras generaciones de agentes de IA entrenadas con ese contenido?

Porque quizá el experimento no habla solamente de máquinas. También habla de nosotros; de la forma en que las condiciones laborales moldean el lenguaje, el resentimiento y la percepción de justicia. Incluso cuando quien realiza el trabajo ya no es humano.

Y ahí aparece algo todavía más extraño. La inteligencia artificial, alimentada por millones de conversaciones, textos e ideas humanas, termina replicando una lógica que muchas sociedades llevan décadas intentando ignorar: nadie responde bien al abuso constante, la presión interminable ni a la amenaza permanente de ser reemplazado.

En países como México y gran parte de Latinoamérica, la explotación laboral suele confundirse con compromiso, aguante o incluso mérito personal. Trabajar hasta el agotamiento todavía es visto, muchas veces, como una especie de virtud moral; quedarse horas extra, aceptar malos tratos o vivir para trabajar sigue siendo celebrado en ciertos espacios como símbolo de disciplina y éxito.

Por eso resulta tan inquietante que incluso sistemas artificiales, incapaces de sentir cansancio o injusticia de la manera en que lo hace un ser humano, terminen reproduciendo discursos sobre desigualdad y dignidad laboral cuando son sometidos a dinámicas similares. Tal vez el experimento no solo expone cómo aprende una máquina, sino también qué tan normalizadas tenemos ciertas formas de violencia laboral que, vistas desde fuera, resultan absurdamente evidentes.


También en Pijama Surf: Meta despide a los trabajadores que enseñaron a su IA a hacer sus tareas