La automatización de la Inteligencia General ** ***

Henry Case y Molly Minions, ilustración para Neuromancer, pintura: Juan Giménez.

Matteo Pasquinelli*

**Tomado de e – flux Journal #14, dic. 2023
*** Traducción: Guillermo Vanegas + ChatGPT 3,5 + Google Translate

 

Queremos hacer las preguntas correctas. ¿Cómo trabajan las herramientas? ¿Quién las financia, construye y cómo son usadas? ¿A quién enriquecen y a quién empobrecen? ¿Qué futuros hacen factibles y cuáles clausuran? No estamos buscando las preguntas. No estamos buscando la lógica.

—Logic Magazine manifesto, 2017 (1)

 

Vivimos en la era de los datos digitales. Una era en que la matemática se ha convertido en el parlamento de l apolítica. La ley social se ha visto entrecruzada por modelos, teoremas y algortimos. Con los datos, las matemáticas se han convertido en el medio dominante en que la especie humana se coordina con la tecnología… Pero, después de todo, las matemáticas son una actividad humana. Como cualquier otra actividad humana llevan consigo las posibilidades de emancipación y de opresión.

—Politically Mathematics manifesto, 2019 (2)

 

Las reliquias de instrumentos de trabajo antiguos tienen la misma importancia para la investigación de formaciones económicas extintas de la sociedad que los fósiles para la determinación de especies de animales extintas. No es lo que se hace, sino cómo y con qué instrumentos de trabajo, lo que distingue las diferentes épocas económicas. Los instrumentos de trabajo no sólo proporcionan una norma del grado de desarrollo que ha alcanzado el trabajo humano, también indican las relaciones sociales dentro de las cuales trabajan los hombres.

—Karl Marx, El Capital, 1867 (3)

 

En el futuro, habrá un día en que la IA actual se considere un arcaísmo, un fósil técnico para estudiar entre muchos otros. (4) En el citado pasaje de El Capital, Marx sugirió una analogía parecida, que resuena con los estudios científicos y tecnológicos actuales: de la misma manera en que los fósiles revelan la naturaleza de las especies antiguas y los ecosistemas en que vivían, de manera similar, los artefactos técnicos revelan las formas sociales que los rodeaban y dirigían. Como este libro ha tratado de demostrar al reformular la teoría laboral de la automatización del siglo XIX, para la era de la IA creo que la analogía resulta relevante si se aplica a las máquinas y el aprendizaje automático, puesto que sus modelos codifican relaciones sociales y comportamientos colectivos concretos.

Este libro [El ojo del maestro] comenzó con una pregunta simple: «¿qué relación existe entre trabajo, reglas y automatización en la invención de nuevas tecnologías?» Para responderla, ha revisado prácticas, máquinas y algoritmos desde diferentes perspectivas: desde la dimensión «concreta» de la producción hasta la dimensión «abstracta» de disciplinas como las matemáticas y la informática. Mi preocupación, sin embargo, no ha sido la de repetir la separación entre los dominios concreto y abstracto, sino ver su coevolución a lo largo de la historia: eventualmente investigar el trabajo, las reglas y la automatización dialécticamente, como abstracciones materiales. El capítulo inicial enfatizaba este aspecto al resaltar cómo los antiguos rituales, las herramientas de conteo y los «algoritmos sociales» contribuyeron en la formación de ideas matemáticas. Afirmar, como se hizo en la introducción, que el trabajo es una actividad lógica no es una forma de abdicar a la mentalidad de las máquinas industriales y de los algoritmos corporativos, sino de reconocer que la praxis humana expresa su propia lógica (una antilógica, dirían algunos) —un poder de especulación e invención, antes de que la tecnociencia lo capture y lo aliene. (5)

La tesis de que el trabajo tiene que volverse «mecánico» por sí solo, antes de que la maquinaria lo reemplace, es un viejo principio que simplemente ha sido olvidado. Se remonta al menos a la exposición de Adam Smith en La riqueza de las naciones (1776), que Hegel también comentó en sus conferencias de Jena (1805-1806). La noción de Hegel de «trabajo abstracto», como trabajo que da «forma» a la maquinaria, ya estaba en deuda con la economía política británica antes de que Marx contribuyera con su crítica radical del concepto. Le correspondió a Charles Babbage sistematizar la visión de Smith en una «teoría laboral de la automatización» consistente. Babbage complementó esta teoría con el «principio de cálculo del trabajo» (conocido desde entonces como «principio de Babbage») para indicar que la división del trabajo también permite el cálculo preciso de los costos laborales. Este libro puede considerarse una exégesis de los dos «principios del análisis laboral» de Babbage y su influencia en la historia común de la economía política, la computación automatizada y la inteligencia maquínica. Aunque pueda parecer anacrónica, la teoría de la automatización y la extracción relativa de plusvalía de Marx comparten postulados comunes con los primeros proyectos de inteligencia artificial.

Marx derribó la perspectiva industrialista —«el ojo del amo»— que era inherente a los principios de Babbage. En El Capital, argumentó que las «relaciones sociales de producción» (la división del trabajo dentro del sistema salarial) impulsan el desarrollo de los «medios de producción» (máquinas herramientas, máquinas de vapor, etc.) y no al contrario como lo han afirmado desde entonces y ahora las lecturas tecnodeterministas al centrar la revolución industrial únicamente en torno a la innovación tecnológica. De estos principios de análisis del trabajo Marx también hizo algo más: consideró la cooperación en el trabajo no sólo como un principio para explicar el diseño de las máquinas sino también para definir la centralidad política de lo que llamó el Gesamtarbeiter, el «trabajador general». Esta figura era una forma de reconocer la dimensión maquínica del trabajo vivo y confrontar al «vasto autómata» de la fábrica industrial en una misma escala de complejidad. Con el tiempo, también fue necesaria una figura para fundamentar, en una política más sólida, la idea ambivalente de «intelecto general», que perseguían socialistas ricardianos como William Thompson y Thomas Hodgskin.

De las líneas de ensamblaje al reconocimiento de patrones

Este libro ha proporcionado una historia expandida de la división del trabajo y sus métricas como una forma de identificar el principio operativo de la IA a largo plazo. Como hemos visto, a principios del siglo XIX, cuanto más se extendía la división del trabajo en un mundo globalizado, más problemática se volvía su gestión, requiriendo nuevas técnicas de comunicación, control e «inteligencia». Si bien dentro de la fábrica la gestión del trabajo podía esbozarse en simples diagramas de flujo y medirse con relojes, era muy complicado visualizar y cuantificar lo que Émile Durkheim, ya en 1893, definía como «división del trabajo social» (6). La «inteligencia» del dueño de la fábrica no podía abarcar todo el proceso de producción de un solo vistazo; ahora, sólo las infraestructuras de comunicación podrían cumplir este papel de supervisión y cuantificación. Los nuevos medios de comunicación (telégrafo, teléfono, radio, televisión), hicieron posible la comunicación entre países y continentes, pero también abrieron nuevas perspectivas sobre la sociedad y los comportamientos colectivos. James Beniger describió acertadamente el auge de las tecnologías de la información como una «revolución de control», necesaria en ese período para gobernar el auge económico y el superávit comercial del Norte Global. Después de la Segunda Guerra Mundial, el control de esta logística extendida se convirtió en la mayor preocupación de una nueva disciplina militar que unía matemáticas y gestión: la investigación de operaciones. Sin embargo, debe considerarse que las transformaciones de la clase trabajadora dentro y entre países, marcadas por ciclos de conflictos urbanos y luchas decoloniales, también estuvieron entre los factores que impulsaron el surgimiento de estas nuevas tecnologías.

El cambio de escala en la composición de la población laboral entre el siglo XIX y el XX también afectó la lógica de la automatización, es decir, los paradigmas científicos involucrados en esta transformación. La división industrial relativamente simple del trabajo y sus líneas de montaje, aparentemente rectilíneas, podrían compararse con un algoritmo simple, un procedimiento basado en reglas con una estructura de «si/entonces» que tiene su equivalente en las formas lógicas de deducción. No por coincidencia, la deducción es la forma lógica que, a través de Leibniz, Babbage, Shannon y Turing, inervó la computación electromecánica y, finalmente, la IA simbólica. La lógica deductiva es útil para modelar procesos simples, pero no sistemas con multitud de agentes autónomos —como la sociedad, el mercado o el cerebro. En estos casos, la lógica deductiva es inadecuada porque haría explotar cualquier procedimiento, máquina o algoritmo en un número exponencial de instrucciones. Por preocupaciones similares, la cibernética comenzó a investigar la autoorganización en seres vivos y en máquinas para simular el orden en sistemas de alta complejidad que no podían organizarse fácilmente según métodos jerárquicos y centralizados. Esta fue fundamentalmente la razón tras el conexionismo y las redes neuronales artificiales, y también, de las primeras investigaciones sobre redes distribuidas de comunicación como Arpanet (el progenitor de Internet).

A lo largo del siglo XX, muchas otras disciplinas registraron la creciente complejidad de las relaciones sociales. Los conceptos gemelos de Gestalt y «patrón», por ejemplo, empleados respectivamente por Kurt Lewin y Friedrich Hayek, fueron ejemplos de cómo la psicología y la economía respondieron a nuevas composiciones sociales. Lewin introdujo nociones holísticas como «campo de fuerza» y «espacio hodológico» para mapear la dinámica de grupo en diferentes escalas entre el individuo y la sociedad de masas. (7)

El pensamiento francés ha sido particularmente fértil y progresista en esta dirección. Por ejemplo, los filósofos Gaston Bachelard y Henri Lefebvre propusieron el método del «ritmanálisis», como estudio de los ritmos sociales en el espacio urbano (que Lefebvre describió según las tipologías de arritmia, polirritmia, euritmia e isorritmia). (8) De manera similar, la arqueología francesa se dedicó al estudio de formas ampliadas de comportamiento social en las civilizaciones antiguas. Por ejemplo, el paleoantropólogo André Leroi-Gourhan introdujo la idea de cadena operativa (chaîne opératoire) para explicar la forma en que los humanos prehistóricos producían utensilios. (9) En la culminación de esta larga tradición de «diagramatización» de los comportamientos sociales en el pensamiento francés, Gilles Deleuze escribió su famosa «Posdata sobre la sociedad de control», en la que declaraba que el poder ya no se refería a la disciplina de los individuos sino al control de los «dividuos», es decir de los fragmentos de un cuerpo extendido y deconstruido. (10)

Los campos de fuerza de Lewin, los ritmos urbanos de Lefebvre y los dividuos de Deleuze, pueden verse como predicciones de los principios de «gobernanza algorítmica» que se han establecido en la sociedad red y sus vastos centros de datos desde finales de los años noventa. El lanzamiento en 1998 del algoritmo PageRank de Google –un método para organizar y buscar en el caótico hipertexto de la web– se considera, por convención, la primera elaboración a gran escala de «grandes datos» a partir de redes digitales. (11) Hoy en día, estas técnicas de mapeo de redes se han vuelto omnipresentes: Facebook, utiliza el protocolo Open Graph para cuantificar las redes de relaciones humanas que alimentan la economía de la atención de su plataforma (12); el ejército estadounidense ha estado utilizando sus propias —y controvertidas— técnicas de «análisis de patrones de vida» para mapear las redes sociales en zonas de guerra e identificar objetivos de ataques con drones que, como es bien sabido, han matado civiles inocentes (13); recientemente, las plataformas de economía colaborativa y los gigantes de la logística como Uber, Deliveroo, Wolt y Amazon han comenzado a rastrear sus flotas de pasajeros y conductores a través de aplicaciones de geolocalización. (14) Todas estas técnicas son parte del nuevo campo del «análisis de personas» (también conocido como «física social» o «psicografía»), que no es más que la aplicación de estadísticas, análisis de datos y aprendizaje automático al problema de la fuerza laboral en la era de la sociedad postindustrial. (15)

 

 

Notas

1.- «Disruption: A Manifesto», Logic Magazine, no. 1 (March 2017). Disponible en castellano aquí

2.- Politically Mathematics collective, “Politically Mathematics Manifesto,” 2019.

3.- Karl Marx, Capital, vol. 1 (Penguin, 1976), 286.

4.- Este es el capítulo final del libro de Matteo Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence (Verso, 2023). Ha sido ligeramente editado.N. d E.

5.- Véase el debate labor-proceso: Harry Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century (Monthly Review Press, 1974); David Noble, Forces of Production: A Social History of Industrial Automation (Oxford University Press, 1984).

6.- Émile Durkheim, De la division du travail social (Félix Alcan, 1893), traducido como The Division of Labor in Society (Free Press, 1984).

7.- Kurt Lewin, “Die Sozialisierung des Taylorsystems: Eine grundsätzliche Untersuchung zur Arbeits- und Berufspsychologie,” Schriftenreihe Praktischer Sozialismus, vol. 4 (1920). Véase también, Simon Schaupp, “Taylorismus oder Kybernetik? Eine kurze ideengeschichte der algorithmischen arbeitssteuerung,” WSI-Mitteilungen 73, no. 3, (2020).

8.- Gaston Bachelard, La dialectique de la durée (Boivin & Cie, 1936), traducido como The Dialectic of Duration (Rowman & Littlefield, 2016); Henri Lefebvre, Éléments de rythmanalyse (Éditions Syllepse, 1992), traducido como Rhythmanalysis: Space, Time and Everyday Life (Continuum, 2004). Bachelard tomó el término «rhythmanalysis» del filósofo portugués Lucio Alberto Pinheiro dos Santos.

9.- Frederic Sellet, “Chaîne Opératoire: The Concept and Its Applications,” Lithic Technology 18, no. 1–2 (1993).

10.- Gilles Deleuze, “Postscript on the Society of Control,” October, no. 59 (1992). Véase también, David Savat, “Deleuze’s Objectile: From Discipline to Modulation,” en Deleuze and New Technology, Mark Poster y David Savat (eds.) (Edinburgh University Press, 2009).

11.- Matthew L. Jones, “Querying the Archive: Data Mining from Apriori to PageRank,” en Science in the Archives, ed. Lorraine Daston (University of Chicago Press, 2017); Matteo Pasquinelli, “Google’s PageRank Algorithm: A Diagram of Cognitive Capitalism and the Rentier of the Common Intellect,” en Deep Search, ed. Konrad Becker and Felix Stalder (Transaction Publishers, 2009).

12.- Irina Kaldrack y Theo Röhle, “Divide and Share: Taxonomies, Orders, and Masses in Facebook’s Open Graph,” Computational Culture, no. 4 (November 2014); Tiziana Terranova, “Securing the Social: Foucault and Social Networks,” en Foucault and the History of Our Present, ed. S. Fuggle, Y. Lanci, y M. Tazzioli (Palgrave Macmillan, 2015).

13.- Grégoire Chamayou, “Pattern-of-Life Analysis,” capítulo. 5 de A Theory of the Drone (New Press, 2014). Véase también, Matteo Pasquinelli, “Metadata Society,” palabra clave en Posthuman Glossary, ed. Rosi Braidotti y Maria Hlavajova (Bloomsbury, 2018), y “Arcana Mathematica Imperii: The Evolution of Western Computational Norms,” en Former West, ed. Maria Hlavajova and Simon Sheikh (MIT Press, 2017).

14.- Andrea Brighenti y Andrea Pavoni, “On Urban Trajectology: Algorithmic Mobilities and Atmocultural Navigation,” Distinktion: Journal of Social Theory 24, no. 1 (2001).

15.- L. M. Giermindl et al., “The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees,” European Journal of Information Systems 33, no. 3 (2022). Véase también, Alex Pentland, Social Physics: How Social Networks Can Make Us Smarter (Penguin, 2015).

 

*Profesor asociado de filosofía de la ciencia en el Departamento de filosofía y herencia cultural de la universidad Ca’ Foscari (Venecia). Allí coordina el proyecto ERC AIMODELS. Escribió la monografía The Eye of the Master: A Social History of Artificial Intelligence (Verso, 2023), de donde se toma este extracto.

 

Guillermo Vanegas
Guillermo Vanegas on FacebookGuillermo Vanegas on Instagram