Imágenes promedio II* ** – Hito Steyerl

Hito Steyerl continúa su impresionante relato sobre la traumatización institucionalizada de los trabajadores digitales no regularizados, la vida cotidiana como un casino digitalizado y las posibilidades (y responsabilidades) de pensar en pequeño y en corto

 

*Tomado de New Left Review

** Traducción Chat GPT 3.5

Por Hito Steyerl

Los medios de producción del significado (12)

Existe otra razón más pertinente por la cual la supuesta eliminación de sesgos dentro de los conjuntos de datos crea más problemas de los que resuelve. El proceso limita los cambios en partes de la salida, haciéndolos más aceptables para los consumidores liberales occidentales, mientras deja intacta la estructura de la industria y sus modos de producción. Pero el problema no solo tiene que ver con el promedio (social), sino con los medios de producción. ¿Quién los posee? ¿Quiénes son los productores? ¿Dónde tiene lugar la producción y cómo funciona?

La creación de filtros para eliminar salidas de redes perjudiciales y sesgadas es una tarea que cada vez se externaliza más hacia actores desfavorecidos, conocidos como microtrabajadores o trabajadores fantasma. Los microtrabajadores identifican y etiquetan material violento, sesgado e ilegal dentro de los conjuntos de datos. Realizan esta tarea en forma de tareas «microremuneradas» que convierten los conductos digitales en cintas transportadoras. Como informó la revista Time en enero de 2023, a trabajadores mal remunerados en Kenia se les pidió que alimentaran una red «con ejemplos etiquetados de violencia, discurso de odio y abuso sexual».(13) Este detector se utiliza ahora en los sistemas ChatGPT de OpenAI. En las metrópolis occidentales, a menudo se recluta a microtrabajadores de sectores excluidos del mercado laboral oficial debido a la legislación sobre refugiados o migrantes, como describe esta entrevista anonima con un trabajador digital en una gran ciudad alemana:

Trabajador digital: Todos estábamos en la misma situación, en una situación muy vulnerable. Éramos nuevos en la ciudad y en el país, tratando de integrarnos, y necesitábamos desesperadamente un trabajo. Todo el personal en mi piso tenía al menos una maestría, yo no era el único. Uno de mis colegas era biólogo y se especializaba en la investigación de mariposas, y tenía que trabajar en las mismas tareas que yo. Como era demasiado difícil encontrar un trabajo real relacionado con su especialidad, la gente simplemente tomaba este tipo de trabajo a tiempo parcial. Eran personas altamente calificadas, con diferentes antecedentes lingüísticos.

Entrevistador: ¿Todos extranjeros?

Trabajador digital: Todos.

Entrevistador: ¿Cómo era el trabajo?

Trabajador digital: Terrible. Y fue igual para todos los que conocí allí. Durante la capacitación te dicen que vas a ver pedofilia, contenido gráfico y lenguaje sexual explícito. Y luego, cuando realmente comienzas a trabajar, te sientas en tu escritorio y ves cosas que son increíbles. ¿Es esto realmente cierto? Los efectos a largo plazo de este trabajo son bastante desagradables. No hubo nadie en mi grupo que no tuviera problemas después. Problemas como trastornos del sueño, pérdida de apetito, fobias, fobia social. Algunos incluso tuvieron que ir a terapia. El primer mes pasas por una capacitación muy, muy intensiva. Tuvimos que aprender a reconocer contenido que era demasiado drástico. Porque los mecanismos de inteligencia artificial o aprendizaje automático no eran capaces de decidir en casos delicados. La máquina no tiene sentimientos, no era lo suficientemente precisa.

Me deprimí. Tuve que ir a terapia. Me recetaron medicamentos. Cuando empecé allí, mi trabajo principal era revisar publicaciones con contenido sexual explícito y casos de alta prioridad, que generalmente tenían que ver con el suicidio o autolesiones. Había muchas imágenes de cortes. Tenía que analizar cuáles eran autolesiones y cuáles suicidas. El segundo mes, le pedí a mi líder de equipo que me asignara a un flujo de trabajo de contenido diferente porque me sentía mal.

[A partir de aquí, ChatGPT «se hace el que no puede seguir traduciendo», G.V.: 

… y luego «despierta, reacciona y retoma»:]

Había muchas reglas para el escritorio: no se permitían teléfonos ni relojes, nada con lo que se pudieran tomar fotos. Sin papel, sin bolígrafos, nada para tomar notas. Algunas veces, veíamos drones volando fuera de nuestras ventanas. Supuestamente, espías intentaban filmar lo que estaba sucediendo en la empresa. A todos se les instruía para bajar las cortinas cuando eso ocurría. Una vez, un periodista estaba afuera del edificio. Nos dijeron que no saliéramos del edificio y que no habláramos con este periodista. Para la empresa, los periodistas eran enemigos.

Entrevistador: ¿Qué tipo de inteligencia artificial se utilizaba en tu trabajo?

Trabajador digital: No sé mucho sobre la inteligencia artificial que se usaba donde trabajaba. Creo que intentaban ocultarlo de alguna manera. Lo que sí sabíamos era que había algún tipo de aprendizaje automático en marcha. Porque básicamente querían reemplazar a los humanos con el software de inteligencia artificial. Recuerdo que en un momento intentaron usar este software, pero era muy inexacto. Así que dejaron de usarlo.

Entrevistador: ¿Qué tipo de software era ese, cuál era exactamente su tarea?

Trabajador digital: No tengo idea. Este tipo de conocimiento solo se transmitía en el nivel ejecutivo de la empresa. Mantenían esta información en secreto. Y aunque escuchábamos rumores aquí y allá, ocultaron este proyecto de nosotros. Pero la inteligencia artificial es un fracaso, porque el algoritmo no es preciso. La gente habla de inteligencia artificial, pero la tecnología detrás de ella todavía es muy, muy convencional, diría yo. Por eso nos necesitan a nosotros, los humanos. Las máquinas no tienen sentimientos. No pueden tocar. El objetivo principal era hacer que personas como yo trabajaran como robots.(14)

Otra entrevista realizada dentro del mismo proyecto describió cómo trabajadores digitales sirios en Alemania tuvieron que filtrar y revisar imágenes de sus propias ciudades natales, destruidas recientemente por el terremoto en la región, y en algunos casos, los restos de sus antiguas casas.(15) Estas imágenes eran consideradas demasiado violentas para los consumidores de redes sociales, pero no para los habitantes de la región, quienes habían sido expulsados por la guerra y la destrucción y se vieron obligados a convertirse en trabajadores digitales en el exilio. Convenientemente, la violencia militar proporcionó a las corporaciones digitales ubicadas en Alemania una nueva fuerza laboral de refugiados sumamente explotable.

Ajustar la tecnología para que sea más «inclusiva» puede llevar a una mejor identificación de las minorías mientras se externaliza el trabajo traumático y mal remunerado. Puede optimizar la discriminación, aparentemente limpiando las aplicaciones comerciales mientras crea jerarquías de clases flagrantemente explotadoras en el proceso. El conflicto político y militar, así como las barreras migratorias motivadas por razones raciales, son herramientas importantes para crear esta fuerza laboral marginada. Tal vez el sesgo no sea un error, sino una característica importante de un sistema de producción malicioso. El sesgo no solo es productivo a nivel de representación, al denigrar visualmente a las personas. Su supuesta eliminación también es productiva para consolidar jerarquías de clases respaldadas por guerras, conflictos energéticos y sistemas fronterizos racistas, y puede aprovecharse en un sistema de producción malicioso.

La eliminación del sesgo no es la única tarea de los microtrabbajadores. También etiquetan fotografías de calles para coches autónomos y categorizan imágenes de objetos y personas para ayudar a las redes de aprendizaje automático a distinguir entre ellos. Como muchos escritores han señalado, los trabajadores digitales son el motor de la automatización: los coches autónomos no podrían funcionar sin ellos. La automatización se basa en los juicios micropromediados de grupos enteros de seres humanos mal remunerados, no en alguna computadora súperinteligente. En algunos casos, esto lleva a que las personas se hagan pasar por inteligencias artificiales, incluso cuando no existe ninguna aplicación de aprendizaje automático. Un investigador informa:

«Entrevistamos a K., empresario parisino y fundador de una start-up, quien culpaba a sus competidores por afirmar que utilizaban inteligencia artificial mientras, en realidad, subcontrataban todo el trabajo a humanos reclutados a través de plataformas en el extranjero. Llegó incluso a afirmar que «Madagascar es el líder en inteligencia artificial francesa». Aún más molesto estaba S., un estudiante que hizo una pasantía en una start-up de inteligencia artificial que ofrecía recomendaciones de viajes de lujo personalizadas para personas acomodadas. La estrategia de comunicación de su empresa enfatizaba la automatización, con un sistema de recomendación supuestamente basado en las preferencias de los usuarios extraídas de las redes sociales. Pero detrás de escena, subcontrataba todos sus procesos a microproveedores en Madagascar. No hacía aprendizaje automático, y el becario no pudo adquirir las habilidades de alta tecnología que soñaba.»(16)

Las capas ocultas de las redes neuronales también ocultan la realidad del trabajo humano, así como la absurdidad de las tareas realizadas. La aparentemente no mediada magia de las imágenes emanando espontáneamente de un montón de datos descansa sobre la explotación masiva y la expropiación en el nivel de la producción. Quizá las emanaciones aparentemente fantasmales de rostros en las renderizaciones estadísticas son de hecho retratos de los microtrabajadores ocultos, encantando y proliferando imágenes promedio.

El trabajo oculto también es crucial para los conjuntos de datos utilizados para entrenar generadores de comandos. Las 5.800 millones de imágenes y leyendas recopiladas de Internet y recogidas en LAION-5B, el conjunto de datos de código abierto donde se entrenó Stable Diffusion, son producto de trabajo humano no remunerado, «desde personas que programan y diseñan sitios web hasta usuarios que cargan y publican imágenes en ellos».(17) No hace falta decir que ninguna de estas personas recibió remuneración ni participación en el grupo de datos o en los productos y modelos construidos a partir de él. Los derechos de propiedad privada, dentro del capitalismo digital y más allá, solo son relevantes cuando se trata de propietarios adinerados. Cualquier otra persona puede [debe, G.V.] ser robada rutinariamente.

¿Del promedio a lo común?

Queda más claro por qué los modelos 3D de dos cabezas de Jano muestran muchas más cabezas que colas: la «moneda» está amañada. Ya sea que la «caiga en la cabeza o de «cabeza», en la automatización o, en términos de Astra Taylor, la «falsomatización» [fauxtomation](18), la casa siempre gana. Además, la cuestión de las condiciones laborales permite una observación más general sobre la relación entre estadística y realidad, de correlación y causalidad. Muchos escritores, incluyéndome a mí misma, han interpretado el cambio de una ciencia basada en la causalidad hacia suposiciones basadas en la correlación como un ejemplo de pensamiento mágico o de deslizamiento hacia la alquimia. Pero, ¿qué pasa si este deslizamiento también captura un aspecto importante de la realidad? ¿Una realidad que, en lugar de estar gobernada por la lógica o la causalidad, de hecho se está estructurando de manera mucho más parecida a un casino?

Una entrada de blog sobre la depresión y los videojuegos proporciona un ejemplo ilustrativo. El escritor describe jugar videojuegos en momentos de depresión, disfrutando especialmente de tareas pequeñas y repetitivas que conduzcan a algún tipo de resultado constructivo, como plantar un cultivo o construir una casa:

«Lo que hace que el trabajo en videojuegos sea tan emocionante es la oportunidad de disfrutar plenamente de una recompensa por tus esfuerzos. Obtienes directamente lo que pones en ello, literalmmente. Los juegos más satisfactorios son en realidad simulaciones fantásticas de vivir un valor marxista básico: el trabajo tiene derecho a todo lo que crea.»(19) 

El escritor describe una relación causal entre entrada y salida, trabajo y recompensa. La conclusión sorprendente es que tal causalidad dentro del capitalismo realmente existente es rara, especialmente en el trabajo precario. Cualquier esfuerzo que hagas no va a crear una salida adecuada de manera lineal, como un salario digno o una forma adecuada de compensación. Las formas precarias y altamente especulativas de trabajo no generan retornos lineales; causa y efecto están desconectados. Esto también introduce un aspecto de clase en la distribución en la vida real de la causalidad versus la correlación. Los trabajos pagados por hora retienen un mayor grado de causa y efecto que los que ocurren en el ámbito desregulado del azar, en ambos extremos de la escala salarial. Por lo tanto, es más «racional» para muchas personas tratar la existencia diaria como un casino y esperar ganancias especulativas. Si todo lo que puedes esperar dentro de un paradigma causal es un ingreso cero, entonces comprar un billete de lotería se convierte en una elección eminentemente racional. El trabajo comienza a parecerse al juego. Phil Jones describe el micromercado de manera similar:

«El trabajador opera cada vez más en una economía cuasimágica de apuestas y loterías. El micromercado representa el sombrío punto culminante de esta trayectoria, donde la posibilidad de que la próxima tarea sea remunerada tienta a los trabajadores una y otra vez a regresar por más. Los intrincados programas de recompensas y la cuestionable fijación de precios convierten las tareas en juegos y vuelven a empaquetar eficazmente la superfluidad y la precariedad como nuevas y emocionantes formas de trabajo-ocio.»(20)

Cuando el salario-se-transforma-en-una-apuesta, la probabilidad no es solo una evaluación de un resultado real, sino que se convierte en parte del resultado mismo. Las representaciones estadísticas dan cuenta de esto. Una vez que la causalidad social es parcialmente reemplazada por la correlación, las relaciones laborales retroceden a la época de los sweatshops victorianos, las imágenes convergen hacia apuestas y la fábrica se convierte en una casa de juegos. La fotografía indexical se basaba, al menos en parte, en una relación de causa y efecto. Pero en las renderizaciones estadísticas, la causalidad queda a la deriva en medio de un desorden de procesos cuasi-no lineales, que no son contingentes sino opacamente manipulados.

El trabajo precario en industrias de aprendizaje automático y los procesos repetitivos de acondicionamiento y entrenamiento que requiere plantean la pregunta: ¿quién o qué está siendo entrenado? Claramente, no solo son las máquinas, o más precisamente, las redes neuronales. También se está entrenando a las personas, tanto como micromaestros como usuarios en general. Volviendo a la excelente pregunta de Herndon y Dryhurst: «¿He sido entrenado?» La respuesta es sí. No solo mis imágenes, sino yo mismo. Generadores de imágenes basados en indicaciones como DALL-E, por supuesto, dependen del entrenamiento de modelos de aprendizaje automático. Pero lo que es mucho más importante, entrenan a los usuarios sobre cómo utilizarlos y, al hacerlo, los integran en nuevas tuberías de producción, pilas de software y hardware que se alinean con aplicaciones propietarias de aprendizaje automático. Normalizan un entorno de producción aislado en que los usuarios constantemente tienen que pagar un alquiler a algún sistema en la nube, no solo para poder realizar tareas, sino incluso para acceder a las herramientas y resultados de su propio trabajo. Un ejemplo es Azure, según Microsoft, la «única nube pública global que ofrece supercomputadoras de IA con capacidades de ampliación y escalabilidad masivas». Azure alquila aplicaciones computacionales de aprendizaje automático y potencia de cálculo, mientras que Microsoft ha establecido una estructura propietaria de arriba hacia abajo que incluye hardware y software listos para el aprendizaje automático, navegadores, acceso a modelos, interfaces de aplicaciones (API) y más. Adobe, el monopolio cuasi [¿cuasi? G.V.]-extractivista más odiado y complicado del mundo para los trabajadores de imágenes, se está moviendo rápidamente en la misma dirección. Dwayne Monroe llama a este tipo de cuasi-monopolio una «estructura de superarrendatario», en la cual las corporaciones digitales privatizan los datos de los usuarios y les venden los productos de nuevo: «la industria tecnológica ha secuestrado una variedad de bienes comunes y luego nos alquila el acceso a lo que debería ser abierto».(21)

Muchos trabajadores de cuello blanco en labores digitales y administrativas se ven amenazados por la automatización basada en el aprendizaje automático; entre ellos, sin un orden en particular: programadores, profesionales de relaciones públicas, diseñadores web y contadores. Pero es más probable que muchos de ellos se vean obligados a «actualizarse» al alquilar servicios construidos sobre su propio trabajo robado, con el fin de seguir siendo «competitivos», que ser completamente reemplazados por la automatización mediante aprendizaje automático. Hoy en día, la capacitación para estos profesionales implica acostumbrarlos a su desaparición a mediano plazo y condicionarlos a depender de pilas de monopolio, con el fin de poder seguir trabajando y acceder a los resultados de su propio trabajo.

Esto llama la atención sobre otro aspecto de las «imágenes promedio. Al igual que los NFT, las representaciones estadísticas son herramientas de incorporación en entornos tecnológicos específicos. En el caso de los NFT, esto se refiere a un entorno criptográfico gestionado a través de herramientas como billeteras, intercambios o libros de contabilidad. En el caso del aprendizaje automático, la infraestructura se compone de arquitecturas en la nube masivas y de alto consumo energético, basadas en el trabajo barato realizado por personas en regiones en conflicto o refugiados y migrantes en centros metropolitanos. Los usuarios están siendo integrados en un sistema gigantesco de extracción y explotación que genera una enorme huella de carbono.

Tomar en serio el problema de la cabeza de Jano significaría desentrenarse de un sistema de múltiple extorsión y extracción. Un primer paso sería activar el otro aspecto de esa cabeza, aquel que mira hacia las transiciones, los finales como comienzos, en lugar de mirar hacia un pasado construido con datos robados. ¿Por qué no cambiar la perspectiva hacia otro futuro: un período de tecnología pequeña y resiliente que utiliza configuraciones mínimas viables, impulsado por energía renovable y que no requiere robo, explotación y regímenes de monopolio sobre los medios digitales de producción? Esto significaría desentrenarnos de la idea de un futuro dominado por algún tipo de esquema piramidal de oligarcas digitales, gestionado por el trabajo oculto de microtrabajadores, en el que el efecto causal es reemplazado por correlaciones manipuladas. Si la cabeza de Jano mira hacia la media, la otra se inclina hacia los bienes comunes.

Notas 

12.- El subtítulo original reza: «The means of mean production», que, por lo que comenta al autora bien podría traducirse a «Los medios de la producción mezquina»  G.V.

13.- Billy Perrigo, «OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic», Time, 18 de enero 2023.

14.- Die Zeit, suplemento cultural no. 14, 30 de marzo 2023: un proyecto conjunto sobre inteligencia artificial realizado por Marie Serah Ebcinoglu, Eike Kühn, Jan Lichte, Peter Neumann, Hanno Rauterberg, Malin Schulz, Hito Steyerl y Tobias Timm. Esta entrevista fue realizada por Tobias Timm.

15.- Esta entrevista fue realizada por Marie Serah Ebcinoglu.

16.- Paolo Tubaro, Antonio A. Casilli y Marion Coville, «El entrenador, el verificador, el imitador: Tres formas en las que los trabajadores humanos de plataformas apoyan la inteligencia artificial» [The trainer, the verifier, the imitator: Three ways in which human platform workers support artificial intelligence], Big Data & Society, vol. 7, no. 1, junio 2020, pág. 7.

17.- Chloe Xiang, «AI Isn’t Artificial or Intelligent», Vice Motherboard, 6 de diciembre 2022.

18.- Neologismo con el que se señala el falseamiento de procesos pretendidamente realizados por máquinas autónomas pero donde sólo hay mano de obra fisiológica esclava, G.V.

19.- Tabitha Arnold, «Depression and Videogames», Labour Intensive Art Substack, 6 de enero 2023.

20.- Phil Jones, Work Without the Worker: Labour in the Age of Platform Capitalism, London and New York 2021, p. 50.

21.- Dwayne Monroe, «ChatGPT: Super Rentier», Computational Impacts, 20 January 2023.

Guillermo Vanegas
Guillermo Vanegas on FacebookGuillermo Vanegas on Instagram