Curatorial impostor syndrome 

Forme di lavoro digitale durante il lockdown: dall’immagine operativa all’etica della curatela

di Lucrezia Calabrò Visconti

Vladan Joler, Matteo Pasquinelli, The Nooscope, 2020. Courtesy: Vladan Joler e Matteo Pasquinelli

L’immagine operativa come interfaccia cortesemente offerta agli umani
Con l’espressione ”immagine operativa” Harun Farocki si riferiva inizialmente a immagini che servono scopi tecnico-matematici dettati da obiettivi specifici. Sebbene questa tipologia di immagini sia stata inventata dagli umani, non è pensata per la loro fruizione: non sono immagini che nascono per essere guardate, non hanno una funzione narrativa, non servono ad intrattenere né a informare, non hanno intenti sociali, non sono edificanti, non sono da contemplare e – a essere precisi – non rappresentano neanche un oggetto, avendo il solo scopo di essere un momento all’interno di un processo di scambio di informazioni tra macchine, per le quali il concetto stesso di immagine è fondamentalmente irrilevante. 

Per afferrare degli esempi di immagini operative, oggi dobbiamo fare uno sforzo immaginativo non indifferente. Anche coloro che hanno nozioni solo rudimentali sui processi computazionali alla base delle tecnologie informatiche possono intuire come il grado di complessità di tali procedure ecceda oramai la nozione umanizzata di “immagine” [1]. Quelle che, quasi vent’anni fa, Farocki indicava con il nome di “immagini operative”, ora vengono definite tecnicamente come spazi vettoriali multi-dimensionali, in cui vengono iscritti una serie di dati per permettere alla macchina di realizzare il riconoscimento (o la produzione) di pattern ricorsivi – un processo che sta alla base di quello che viene chiamato “apprendimento profondo” della macchina. La traduzione di queste procedure in un’interfaccia visiva è necessaria solo nel caso in cui, in qualsiasi momento di questa conversazione tra macchine, sia necessario l’intervento di una persona umana: “quasi un gesto di cortesia da parte delle macchine verso gli umani” (Pantenburg 2017, p. 49).

Dimmi cosa immagini quando ti dico intelligenza artificiale e ti dirò di che tipo di alienazione soffri
L’applicazione di procedure algoritmiche che, sostanzialmente, riconoscono o producono informazioni sulla base di pattern riconoscibili, coincide nel linguaggio comune con il più generico concetto di “intelligenza artificiale”. Secondo l’hacker e scrittrice Eleanor Saitta, le rappresentazioni dell’intelligenza artificiale a cui siamo abituate [2] sono principalmente due [3]: “il Dio nella scatola”, ovvero l’immagine di un’entità onnisciente, perfettissima ed eterna che vive all’interno delle nostre tecnologie e che attraverso poteri a noi sconosciuti può cambiare il mondo che ci circonda, oppure “il Data Center” (centro di elaborazione dati), ovvero l’immagine dell’infrastruttura che serve per eseguire le operazioni di computazione. Questa viene tendenzialmente visualizzata come un edificio enorme e impenetrabile, completamente privo di presenze umane e solitamente situato in mezzo a un deserto. L’edificio ospita grandi quantità di server, router e altra apparecchiatura tecnica, accuratamente ordinata in innumerevoli scaffali, costellati da centinaia di migliaia di spie intermittenti, come minuscole finestre sugli uffici di impiegati artificiali in un grande sogno cyber-neoliberista. Sebbene entrambe le rappresentazioni siano parzialmente corrette, queste narrazioni simil-fantascientifiche dell’intelligenza artificiale hanno il limite (o il potere) di nascondere le reali dinamiche di produzione del lavoro che sottostanno ai processi computazionali, e, ovviamente, i macro-interessi che li manovrano. Nelle parole di Matteo Pasquinelli e Vladan Joler: “[…] l’aggettivo ‘artificiale’ porta con sé il mito dell’autonomia della tecnologia: suggerisce dei caricaturali ‘cervelli alieni’ che si auto-riproducono in silico ma, in realtà, mistifica due processi di alienazione vera e propria: la crescente autonomia delle compagnie hi-tech e l’invisibilizzazione dell’autonomia dei lavoratori a livello globale” (Pasquinelli, Joler 2020).  

Nooscopi di tutti i paesi, unitevi!
La demistificazione delle narrazioni sull’intelligenza artificiale può aiutarci a comprendere meglio le dinamiche di sfruttamento del lavoro che sottostanno ai processi computazionali. Pasquinelli e Joler propongono di riportare il concetto di intelligenza artificiale da quello di “macchina intelligente” a quello di semplice nooscopio (dal greco skopein “vedere/esaminare” e noos “conoscenza”), ovvero uno strumento che aiuta a percepire caratteristiche, pattern e correlazioni attraverso dati che vanno oltre le possibilità umane di comprensione. Le attività svolte dall’intelligenza artificiale sarebbero funzioni non troppo diverse da quelle che svolgono altri strumenti tecnici, come il telescopio e il microscopio. Il vantaggio principale di immaginare l’intelligenza artificiale come un nooscopio è che, qualsiasi forma prenda nella nostra immaginazione questo singolare dispositivo, è chiaro che c’è qualcuno dalla parte giusta dello strumento a guardare nella sua lente, e che senza quello sguardo il nooscopio cadrebbe per terra inerme. Diversamente dal “Dio in una scatola” e dal “Data Center”, il nooscopio mostra chiaramente che, per quanto autonomizzata e intelligente, la macchina che organizza l’informazione è manovrata da una piccola oligarchia di persone che sa come attivarne le funzioni. Se ripensiamo per un attimo alla definizione di “immagine operativa” come interfaccia visiva pensata a servizio degli umani e la applichiamo a questo nuovo strumento di osservazione, potremmo essere tentati di pensare che non sia il concetto di “immagine operativa” a essere diventato obsoleto, ma che semplicemente non siamo noi la classe di umani per cui quell’interfaccia è stata pensata.

Classe vettorialista e classe hacker
È oramai noto che le forme contemporanee di potere non siano esercitate da chi possiede i mezzi di produzione, ma da chi possiede, controlla e strumentalizza l’informazione. In effetti, non serve realmente possedere l’informazione, ma piuttosto il vettore su cui quell’informazione si muove, ovvero i protocolli tecnici e legali attraverso cui trasmettere, immagazzinare e processare l’informazione (brevetti, marchi, trademarks, diritti d’autore e sistemi logistici che funzionano secondo le procedure di riconoscimento di pattern descritte poco sopra) – sostanzialmente: il nooscopio. “La mercificazione ora non implica l’apparizione di un mondo di cose, ma l’apparizione di un mondo di informazioni sulle cose(Wark, 2019, p.15) dichiara McKenzie Wark in Capital is dead. Is this something worse?, suggerendo la nascita di una nuova classe dominante, la “classe vettorialista”, che accumula capitale a discapito della “classe hacker”, ovvero quella di cui, con ogni probabilità, fai parte anche tu che stai leggendo questo testo. La classe hacker è sempre impegnata nel consumo e nella produzione di informazione (che poi spesso sono la stessa cosa). Infatti, il modello di business della classe vettorialista non sarebbe applicabile senza il lavoro costante e gratuito di miliardi di utenti nel mondo, coinvolti volontariamente in processi di lettura, selezione, riorganizzazione e condivisione di dati. Secondo Saitta, il primo inganno a cui questi utenti hanno creduto è che Internet fosse un sistema di comunicazione, mentre in realtà è un sistema di coordinamento di azioni, pensate per avere un impatto sul mondo a favore di una cerchia piuttosto ristretta di persone. 

Curatorial Impostor Syndrome
Il forzato trasferimento di tutte le attività operative sull’interfaccia digitale a causa della prima ondata di COVID-19 del 2020 ha intensificato e reso ancora più palesi le dinamiche di potere e sfruttamento appena descritte [4]. Prendiamo come esempio il micro-universo dell’arte contemporanea: che ogni singola persona, opera, istituzione e processo della vita reale abbia un suo corrispettivo nel mondo digitale non è un’informazione nuova. Stiamo costruendo i nostri avatar da decenni, nutrendo l’algoritmo di informazioni su quello che desideriamo, su quali sono le nostre letture preferite, quali le nostre convinzioni politiche. Ogni progetto viene documentato e poi condiviso online con le riviste del settore, attraverso i social, sui nostri portfolio accompagnati da statement ben confezionati. Abbiamo account che ci permettono di gestire il nostro conto in banca e applicazioni che ci ricordano in quale giorno del mese è più probabile che arriverà il ciclo. La lista di “informazioni sulle nostre cose” che abbiamo creato è già potenzialmente infinita. 

Ciò che, a partire dal disordinato momento del lockdown, si è rivelato tuttavia un’inedita fonte di angoscia, è stato il presentimento che i nostri avatar e le loro attività digitali potessero diventare l’unica garanzia di mantenimento del loro corrispettivo nella vita reale. Da questa angoscia è derivata l’iperproduzione di contenuti culturali ad nauseam da parte di istituzioni di ogni scala e regime, spesso troppo concentrate sul rischio di non riuscire a sopravvivere alla crisi economica innescata dalla pandemia per soffermarsi sulla definizione di modalità etiche di coinvolgimento di impiegati, artisti e collaboratori. Allo stesso tempo, l’angoscia è sfociata nella riconversione dei finanziamenti già allocati verso alternative digitali ai progetti originali, spesso delineate troppo rapidamente per fare in tempo ad alfabetizzare le figure coinvolte a un linguaggio tecnico e culturale che garantisse una reale qualità dei contenuti prodotti. Come se non bastasse, all’angoscia si è accompagnata la presa di consapevolezza delle profonde disuguaglianze e forme di precariato che il sistema dell’arte continua a perpetrare, acuite dall’inadeguatezza della risposta statale di fronte all’assenza di tutele delle lavoratrici della cultura. Perciò, il tentativo di continuare a lavorare nelle nuove condizioni imposte dal lockdown è stato affiancato dal tentativo di manifestare il dissenso verso le condizioni di lavoro pregresse, attraverso gli stessi strumenti che quelle condizioni di lavoro le stavano peggiorando[5]. Nelle parole di Silvio Lorusso e Geert Lovink, “il peso organizzativo scaricato sui lavoratori è stato triplo: organizzare il contenuto del loro lavoro, organizzare la sua forma in remoto come richiesto dalle organizzazioni, e infine organizzare una reazione a questa stessa forma” (Lorusso, Lovink 2020).

“Un serio giorno di lavoro”
La produzione culturale sviluppata durante la quarantena potrebbe venire letta come una sorta di esproprio dei meccanismi tipici dell’“immagine operativa” come l’abbiamo descritta. Se l’“immagine operativa” è un momento, nel dialogo tra macchine, pensato per essere intellegibile da parte degli umani, allora forse le informazioni prodotte durante il lockdown sono state, al contrario, un momento tecnico all’interno di un processo tra umani. Un momento che non aveva altro scopo se non fornire cortesemente un’interfaccia alle macchine affinché le pratiche culturali che sottostanno alle goffe dirette Instagram, alle visite online a musei e gallerie interrotte dal 4G che smette di funzionare, alle nuove commissioni digitali, alle programmazioni di video in streaming in bassa risoluzione, e ai podcast troppo lunghi per essere ascoltati fino in fondo potessero venire correttamente identificate dalla macchina come “lavoro” – e quindi essere passibili di un minimo compenso nel mondo reale. Non voglio insinuare che tutto ciò che è stato prodotto online dall’inizio della pandemia avesse l’unico scopo di giustificare la transizione (economica, simbolica, reputazionale) che l’avrebbe accompagnato, ma sono persuasa che se, secondo Farocki, “l’immagine ha reclamato un serio giorno di lavoro, non è più solo intrattenimento da fine settimana” (Farocki 2009), questa volta potrebbe essere la produzione culturale a reclamare un giorno di serio lavoro – alle macchine, a chi le comanda, e a chi quel lavoro dovrebbe pagarlo.

Etica della curatela
Grande parte dei processi che avvengono online – a opera della forza lavoro degli utenti, o a opera dell’intelligenza artificiale – sono basati su funzioni tipicamente attribuite alla curatela. Non è stata quindi una sorpresa che durante la quarantena il ruolo di curatrice abbia finito per scontrarsi e in parte sovrapporsi con quello di content curator, una novella figura lavorativa, figlia del processo di professionalizzazione della funzione di selezione e condivisione di contenuti svolta genericamente da tutti gli utenti online. “Potresti effettivamente star svolgendo i compiti di un curatore di contenuti su base giornaliera e non saperlo nemmeno!” (Kennedy) proclama uno degli articoli che promettono di insegnare la “top 10” di trucchi, tool e segreti per diventare content curator, condivisi a centinaia su piattaforme di marketing e business strategy dall’inizio del lockdown. Ma oltre a fornire servizi apparentemente innocui come l’analisi, la riorganizzazione e la mediazione di contenuti, i processi curatoriali, come quelli algoritmici, implicano una violenta azione sulla realtà: curare vuol dire avere il potere di decidere chi è dentro e chi è fuori dall’economia dell’attenzione, quali pratiche verranno divulgate e in quali termini, quali prospettive politiche verranno immesse nel mondo. Nel contesto del lockdown, ovvero in un panorama di scarsità di risorse e massiccia mancanza di ammortizzatori sociali, curare ha voluto dire anche trovarsi ad avere la responsabilità di decidere chi avrebbe o meno ottenuto quel lavoro, ricevuto o meno quei fondi, resistito meglio a questo periodo di totale precarietà. Per questo il principio curatoriale che muove le nostre attività come curatrici, content curators, istituzioni, utenti ed esponenti della classe hacker non può prescindere prima di tutto da una prospettiva etica, consapevole del fatto che ciò che intendiamo come curatela è radicalmente cambiato. 

Per noi può sussistere una differenza abissale tra la curatrice di un’istituzione costretta dalla pandemia a progettare contenuti online, un curatore di contenuti che organizza liste di prodotti a partire dalle votazioni del suo target di riferimento per accrescere il suo capitale simbolico, e un utente qualsiasi, che cura semplicemente il suo profilo postando contenuti che trova interessanti per amici e contatti. Dal punto di vista dell’intelligenza artificiale, tuttavia, questa differenza non si pone, se non nella tipologia di contenuti che pre-selezionerà per noi, approssimandoli sulla base delle nostre scelte passate. Né si pone una differenza per la classe vettorialista, visto che l’effetto che queste tre pratiche curatoriali producono è esattamente lo stesso: generare nuove informazioni da vecchie informazioni. Il primo passo allora per emanciparci da questo modello economico sta forse nel lavorare insieme a una versione disillusa, pandemica ed estesa dell’impolverato concetto di “coscienza di classe”. “Parte della battaglia del nostro tempo sta nel vedere un interesse di classe comune in ogni tipo di produzione di informazione, che sia nelle scienze, nella tecnologia, nei media, nella cultura o nell’arte. Ciò che abbiamo tutti in comune è produrre nuove informazioni, ma non possedere i mezzi per realizzarne il valore” (Wark 2019, p. 13). Il secondo passo, o forse il passo zero, è quello di alfabetizzarci, demistificare i concetti pregressi che ci sono stati insegnati e approfondire le dinamiche sociali e lavorative che sottostanno a questa nuova realtà, per iniziare a ragionare sulla necessaria formulazione di un’etica della curatela allargata, più consapevole e preparata.

Note

  1. Va sottolineato che quando Farocki utilizzava il termine per la prima volta in Auge/Machine I-III (2001-2003) il processo algoritmico di scambio di informazioni tra macchine aveva effettivamente un valore “visivo” – le “telecamere suicida”, montate sulla punta dei missili intelligenti durante la prima Guerra del Golfo per identificare e raggiungere l’obiettivo da colpire, ne sono un esempio perfetto. Dalla fine degli anni 2000, tuttavia, il meccanismo del “riconoscimento di pattern” ha iniziato a essere applicato anche all’analisi di dati non visivi, inaugurando l’era dell’”apprendimento profondo”, ovvero l’applicazione di tecniche algoritmiche di riconoscimento di pattern ricorsivi non solo all’ambito visivo, ma a tutte le tipologie di dati.
  2. Si è deciso di applicare la metodologia di sostituire la forma neutrale del “maschile inclusivo” con un’alternanza della forma femminile e maschile di professionalità e pronomi, ove fosse impossibile mantenere una forma neutra.

  3. Oltre alle due qua elencate, Saitta propone anche una terza rappresentazione dell’intelligenza artificiale, ovvero un qualche tipo di sistema che descrive il mondo sotto forma di immagini riconoscibili ma orrorifiche come Deep Dream di Google (Saitta 2018).

  4. Basti pensare che, dal 18 marzo al 16 ottobre 2020, Elon Musk ha incrementato il suo patrimonio del 270%, salendo da 24,6 a 91,9 miliardi di dollari, seguito da Mark Zuckerberg, che ora può contare su un patrimonio di 97,7 miliardi (salito del +78,6% dai 54,7 di inizio pandemia) e da Jeff Bezos, che da 113 miliardi è salito a 192, incrementando il suo già pornografico patrimonio del 69,9%. Da notare anche il prima semisconosciuto CEO di Zoom Eric Yuan, il cui patrimonio è passato da 5,5 a 24,7 miliardi di dollari, crescendo del 349% (dati tratti da Gabanelli, Massaro 2020).

  5. Di qua la nascita di iniziative come AWI – Art Workers Italia https://artworkersitalia.it/.


Bibliografia e sitografia