The Eye of the Master – Matteo Pasquinelli

Published On: 17 Luglio 2025Categories: schede

Marx è passato di moda ma, essendo un classico, resta vivo e vitale sotto le ceneri. Persino quando si tratta di Intelligenza Artificiale. Con il suo The Eye of the Master, il filosofo della scienza Matteo Pasquinelli ci prende per mano e ci accompagna in una lettura politica, e marxista, del fenomeno AI. Ci voleva. 
 

Massimo Morelli

Matteo Pasquinelli

Matteo Pasquinelli

È la grande sorpresa, il grande shock, la grande meraviglia, e naturalmente non si parla d’altro. Si parla quasi solo di intelligenza artificiale, eppure… L’esplosione dell’AI viene esplorata e chiosata a partire da molti punti di vista: tecno-futuristico (Bengio, Kurzweil, Tegmark, etc.), etico-religioso (Floridi, Benanti, Arnold), socio-economico (Elliott, Zuboff), etico-legale (Russell, Bryson, Susskind, Lessig)… Mi pare tuttavia che in questo coro dissonante si noti una palese assenza: cos’ha da dire in tema di AI la filosofia politica?
Non voglio certo affermare che non vi siano filosofi della politica che discettano di intelligenza artificiale, tutt’altro, tuttavia mi sembra che nessuna delle loro voci abbia davvero superato la soglia del rumore. Nel dibattito contemporaneo si continuano a citare soprattutto la Zuboff, che però è principalmente una sociologa, o magari la vecchia teoria della giustizia di John Rawls, che è morto nel 2002 e quindi ha fatto in tempo a vedere lo sviluppo di internet, ma non la recente insurrezione delle tecnologie AI. Per non parlare delle possibili interpretazioni di matrice marxista, che naturalmente esistono ma sono snobbate dai media e restano nell’ambito degli addetti ai lavori. Marx non va di moda e persino il termine ‘capitale’ viene usato con riluttanza.

Nondimeno, sotto le ceneri la brace ancora arde: si pensi ai vari  Christian Fuchs (Digital Labour and Karl Marx, 2014), Nick Dyer-Witheford (Cyber-Proletariat, 2015), Evgenij Morozov (I signori del Silicio, 2016), Aaron Bastani (Fully Automated Luxury, Comunità, 2019) e altri. Tutti pensatori che meriterebbero maggiore attenzione, come è anche e soprattutto il caso di Matteo Pasquinelli, professore di filosofia della scienza in Ca’ Foscari e autore del saggio The Eye of the Master (tradotto in italiano da Carocci con il titolo L’occhio dell’algoritmo).
Il suo libro ha il merito di non essere uno dei tanti commentari all’intelligenza artificiale prodotti da ingegni magari edotti in altri campi ma sostanzialmente ignari delle questioni tecniche; al contrario, Pasquinelli si sofferma a far chiarezza su parecchi fondamenti delle tecnologie digitali, dalle nozioni di computazione e algoritmo a quelle di rete neurale, pattern recognition, sistema auto-organizzativo e tante altre. Un lavoro scrupoloso e spesso fuori dagli schemi, come nel suo far risalire l’origine del pensiero algoritmico al rituale vedico Agnicayana, che si esprime nella costruzione di un complesso altare in mattoni a forma di uccello dedicato alla divinità del fuoco.

Tutte belle cose, ma l’obiettivo di Pasquinelli è un altro, ed è appunto di natura filosofico-politica. Egli prende spunto dagli ultimi due quaderni dei Grundrisse (sette taccuini ricchi di chiarificazioni concettuali scritti soprattutto per chiarirsi le idee e pubblicati per la prima volta a Mosca nel 1939 e Berlino nel 1953), che sono stati in seguito denominati Frammenti sulle macchine perché in essi Marx espone per l’appunto il suo pensiero sull’evoluzione tecnologico-macchinista del capitalismo internazionale.
Pasquinelli spiega che i principi fondatori della teoria delle macchine di Karl Marx sono essenzialmente tre:

1. le nuove macchine utilizzate in ambito industriale imitano e sostituiscono la precedente divisione del lavoro umano.
È un punto fondamentale sul quale torno a breve; per il momento basti ricordare che Charles Babbage, nel progettare le prime macchine calcolatrici automatiche, si era ispirato al lavoro di Gaspard de Prony.
A cavallo tra tra Sette- e Ottocento, de Prony propose un metodo per calcolare le tavole logaritmiche attraverso una specie di algoritmo collettivo vivente che prevedeva l’impiego di matematici in cima al flusso di lavoro, i quali formulavano il problema e lo passavano agli algebristi del piano di sotto, che provvedevano a confezionare una serie di operazioni aritmetiche, le quali venivano infine passate a una serie di esecutori concreti dei calcoli al piano terra;  i fogli con i calcoli venivano infine rimandati ai matematici del piamo più alto per il controllo.
Charles Babbage ebbe l’idea di sostituire il workflow umano previsto da de Prony con un dispositivo puramente meccanico, e a tal fine realizzò una macchina, denominata Difference Engine, capace di calcolare le tavole logaritmiche senza intervento umano (tranne che per l’avvio). 

2. la divisione del lavoro in piccoli compiti consente al capitalista di acquistare l’esatta quantità di lavoro necessaria per svolgere una determinata funzione produttiva, cosa che naturalmente riveste la massima importanza in vista della massimizzazione dei profitti.

3. le macchine sostituiscono il flusso di lavoro umano suddiviso in piccoli compiti, ed essendo più facilmente controllabili e ‘misurabili’ dei lavoratori in carne e ossa consentono una nuova e più precisa articolazione e metrica della funzione produttiva.
In altre parole, le macchine consentono di definire e monitorare molto meglio la generazione del plusvalore, aspetto centrale per il corretto funzionamento del modello di accumulazione capitalistico.

Nei Grundrisse, Marx esprime anche un caveat per il futuro del capitalismo internazionale. In primis egli nota che l’automazione erode il tempo necessario a eseguire un lavoro, ma in questo modo riduce il tempo di lavoro ‘rubato’ ai lavoratori umani, che di fatto è il fondamento stesso del plus-valore capitalistico. Quindi, in un certo senso, l’automazione tende a ridurre il plus-valore. Già questa è una grande contraddizione (Widerspruch), ma c’è dell’altro. Marx introduce il concetto di general intellect, che equivale all’insieme delle conoscenze sviluppate e gestite dalla società nel suo insieme. Scienza e tecnologia costituiscono appunto il nucleo principale di questo general intellect, che in fin dei conti non appartiene a dei singoli o a dei gruppi, ma alla società umana nel suo insieme. Il capitale tuttavia tende ad appropriarsi e a sfruttare per fini suoi esclusivi il general intellect, in un certo senso cerca di espropriarlo, ma in questo modo entra in rotta di collisione con gli interessi della società umana nel suo insieme. Man mano che le macchine divengono più sofisticate e importanti nell’ambito dei processi produttivi, la contraddizione tra la volontà espropriativa del capitalismo internazionale e gli obiettivi della società umana diventa sempre più evidente e insostenibile, fino a sfociare – così pensava Marx – in una qualche forma di ribellione anti-capitalistica. Lo sviluppo macchinista rischia quindi di profilarsi come il cavallo di Troia destinato ad accelerare la distruzione del modello di accumulazione capitalistica. Marx dixit…  

Secondo Pasquinelli, anche la computer science in genere e l’AI rientrano pienamente in tutto questo complesso discorso, con la differenza però che mentre le tipiche macchine dell’età industriale imitano e vicariano la divisione del lavoro fisico, quelle dell’età informatica imitano e vicariano la divisione del lavoro intellettuale, del pensiero. Sto semplificando, ma il succo è questo.

L’aspetto a mio giudizio più interessante è che a valle di tutto questo discorso Pasquinelli sostiene una tesi abbastanza soprendente, almeno rispetto alle dottrine mainstream. Egli sostiene che noi siamo abituati a pensare allo sviluppo tecnologico nei termini di una sequenza di eventi che vede in primis la scoperta scientifica, poi la sua applicazione tecnologica e solo alla fine le trasformazioni in termini di organizzazione dei flussi di lavoro e di struttura sociale che tali innovazioni inevitabilmente producono. In realtà però le cose stanno esattamente all’opposto: secondo un’ottica marxista, che Pasquinelli ritiene più aderente al vero, in principio si verificano i cambiamenti in termini di organizzazione capitalistica dei flussi di lavoro, dai quali discendono le tecnologie il cui fine è quello di imitare e vicariare le strutture dello human labor, e solo per ultima interviene la scienza a formalizzare e ratificare con le sue scoperte quanto le tecnologie hanno già messo in pratica.

New machines prompt scientific notions and paradigma shifts more often than science happens to invent new technologies from above. As in an example mentioned earlier, it is the steam engine which gave birth to thermodynamics, rather than the other way around. The science of heat and energy transformation developed to ameliorate the steam engine  [M. Pasquinelli, The Eye of the Master,  Verso, London, 2023, pp. 90-91]

Qui Pasquinelli fa esplicito riferimento ad alcuni studiosi di lignaggio: Peter Damerow e Wolfgang Lefèvre, autori di Tools of Science [contenuto in Peter Damerow, Abstraction and Representation: Essays on the Cultural Evolution of Thinking, Berlin, Springer, 2013]; Boris Hessen, che nella sua conferenza del 1931 intitolata The Social and economic Roots of Newton’s Principia sostiene che le scoperte di Newton derivavano strettamente dagli strumenti e le macchine disponibili a quel tempo, come i canali di trasporto idrico, le pompe idrauliche e le pulegge utilizzate nelle miniere, o le armi da fuoco e le tecniche di controllo balistico impegnate in guerra; Peter Galison secondo il quale le differenze tra la fisica newtoniana e quella einsteiniana traggono la loro origine dalla differente percezione del tempo nelle epoche in cui i due fisici svilupparono il loro pensiero: “a centralised universal clockwork mantained a uniform time in Newton’s case, whereas it was an electromechanical world connected by the new networks of communication such as the telephone in Einstein’s case” [The Eye of the Master, op. cit., p. 92].
Ipotesi intrigante, ma lascio agli storici e ai filosofi della scienza decidere se sia più veritiera la concezione mainstream o quest’altra di ispirazione marxista, o se si debba  formulare una qualche sintesi tra le due.

Tirando le reti a terra, Pasquinelli sostiene che anche l’avvento dell’AI è stato reso possibile dall’insopprimibile esigenza capitalistica di monitorare, controllare e misurare con sempre maggior precisione le funzioni produttive. Mi pare abbastanza credibile. Questa volta tuttavia gli scaltri capitalisti potrebbero aver sbagliato i conti, nel senso che con l’AI la strategia di sostituzione macchinista appare molto più rischiosa. Il capitale si è sempre adoperato per sostituire i lavoratori umani, spesso poco produttivi e potenzialmente molesti, con delle macchine prive di qualsivoglia capacità di interazione sociale. Anche lo sviluppo dell’intelligenza artificiale e della robotica perseguirebbe il medesimo obiettivo, ma  in un certo senso si è spinto troppo in là, sino a rendere possibili creature super-intelligenti – e fin qui tutto bene – ma anche capaci di interazione sociale e azioni volontarie. Stavolta la situazione è completamente diversa, perché i nuovi robot sociali mal si attagliano al ruolo di schiavi obbedienti e ossequiosi cui si vorrebbe relegarli.
Oggi molti scienziati e pensatori  denunciano i rischi legati a una possibile ribellione di questi sistemi auto-organizzativi dotati di autonomia deliberativa. I loro timori hanno del fondamento, ma bisogna sottolineare che a rischiare di più è proprio il sistema capitalistico, che ha generato un modello di accumulazione fondato sullo sviluppo dell’automazione industriale.
Se lo scenario apocalittico della ribellione robotica dovesse mai realizzarsi saremmo costretti a concluderne che, una volta di più, il buon vecchio Marx aveva visto giusto.