Socializzazione della Finanza e Crisi Economica Globale – Intervento di Info Free Flow (seconda parte)


Dopo la bolla della
New Economy…

Al di là delle
motivazioni più squisitamente economiche dello scoppio della bolla
delle Dot Com nel 2000, c’è da riflettere sulla distanza
antropologica tra previsioni degli investitori e design
dell’architettura di rete degli anni ’90. In quel periodo erano
necessarie notevoli competenze specialistiche per usufruire di un
computer e per navigare in una rete che, sebbene in transizione verso
l’uso civile, aveva le sue radici ancora nei progetti dei
cybersoviet, compensando i prerequisiti tecnici richiesti a
chi vi si avvicinasse con un’elevata scalabilità ed orizzontalità.
L’infrastruttura di rete e la capacità di storaggio e trasmissione
dei dati non erano ancora così elaborate da facilitare la
partecipazione del grande pubblico ad un’economia di beni e servizi
immateriali come quella prospettata dalla retorica positivista dei
redattori di Wired. In altre parole, la bolla della New
Economy è stata dovuta ad errori di sopravvalutazione da parte del
mercato della assorbibilità dei servizi delle dot com, della loro
monetizzabilità e del livello di competenza dei loro utenti. Slogan
del tempo prospettavano: "arricchisciti in fretta" o
“costruiamole, poi arriveranno”, ma ciò si è dimostrato a lungo
termine insostenibile, davanti alla mancanza di un design in grado di
permettere agli investitori/utenti di orientarsi tra ed usufruire di
dispositivi in grado di offrire loro servizi e contemporaneamente
mettere a lavoro la propria esperienza. Il colpo alla FIRE economy a
fine anni ’90 deriva anche da un deficit di economia ICE
(intellectual, cultural, educational) che non poteva essere colmato,
a meno di non abbassarne l’asticella ad un target dotato di
competenze più generiche e dandogli modo di metterle a valore.

 

Il crollo delle Dot Com
comporta un profondo ripensamento delle dinamiche della cosiddetta
"economia della conoscenza", spesso enfaticamente ed
ottimisticamente posta come "economia dell’abbondanza": se
è vero che con i costi di riproduzione marginali dei beni
immateriali tendenti allo zero la circolazione degli stessi viene
assai facilitata, è anche vero che non tutti possiedono abbastanza
tempo e risorse cognitive ed interpretative non solo per goderne, ma
alle volte nemmeno per intercettarli. Si pone il problema
dell’economia dell’attenzione, che non rappresenta certo il ritorno
alla scarsità tradizionale, bensì una declinazione di questa
variabile rispetto allo scenario della New Economy. Il deficit di
attenzione dell’operaio sociale della New Economy è profondamente
intrecciato alle dinamiche della finanziarizzazione e della
parcellizzazione del lavoro precedentemente discusse: questi processi
hanno sì generato redditi aggiuntivi (distribuendoli in modo
ineguale), ma distruggendo al contempo salario e stabilità
occupazionale (con le ristrutturazioni e le esternalizzazioni) e
dirottando il tempo di attenzione dei lavoratori-consumatori dalla
ricerca di beni e servizi a quella di lavoro. E’ un problema presente
e persistente persino nella nuova new economy del Web 2.0 in cui –
nonostante le avanzate tecniche di profilazione, di tailored
advertising
e la messa a lavoro di risorse e competenze
extra-lavorative con la messa a valore del tempo libero – resta o
diventa ancora più scarso in rapporto all’offerta il tempo di
attenzione da dedicare alla ricerca ed consumo di beni e servizi
informazionali.

La grande lezione
impartita dalla bolla delle dot com riguarda la posizione della forza
lavoro: essa non è solo un costo salariale e un produttore di
attenzione, ma anche un reddito ed un consumatore di attenzione.
Anche in questo la rete si dimostra non un paradiso della
gratuità e della disponibilità sconfinata di beni e servizi, bensì
un ambiente regolato da interazioni niente affatto differenti
rispetto al reale.

Riaprire la Frontiera
della Sussunzione: Personalizzazione di Massa


Se nel mondo della
finanziarizzazione è la nuda vita ad essere messa a valore, ciò
comporta un collegamento diretto con la necessità di determinare
questo valore ai fini di un suo migliore inserimento e scambio sul
mercato. Non si tratta esclusivamente di vita ed esperienze
antropiche: l’intero mondo naturale e le sue manifestazioni vanno
ridotte a quantità, reificati, sia per venire fruiti inclusivamente
dal più ampio numero possibile di soggetti, sia per essere collocati
sul mercato e permettere a questo di scommettere sulle loro
oscillazioni. Nel postfordismo fino alla bolla delle dot com, ciò è
stato possibile solo in parte, a causa di evidenti limiti
infrastrutturali. 

Questa rivoluzione
silenziosa viene messa in secondo piano dall’altra spinta
capitalista, ma qualitativa, dell’apertura delle frontiere
internazionali al libero mercato: sia a livello globale (con
l’istituzione dell’OMC nel 1995) che regionale (ad esempio con
l’implementazione del trattato di Maastricht in Europa), l’irruzione
di merci straniere sui mercati nazionali sembrava rappresentare la
soluzione alla saturazione di questi ultimi. Tuttavia, il tentativo,
od il passaggio, di proporre beni terziari ed immateriali
standardizzati, come in una sorta di prosecuzione del consumo di
massa fordista in cui al modello T si sostituiscono le scarpe Nike,
il Big Mac, ecc. (in un fordismo di beni terziari, immateriali) ha
prodotto opposizione e conflitto. Il pensiero unico e la
globalizzazione subiscono a distanza ravvicinata da parte di una
pluralità di movimenti, consumatori, resistenze – spinta da
motivazioni diversificate e a volte antitetiche – il triplice colpo
sociale (Seattle 1999) economico (Dot Com 2000) e politico (Genova e
Twin Towers 2001) che porta il capitale alla ristrutturazione sotto
l’insegna della personalizzazione di massa, il riconoscimento della
possibilità di costruire un mercato su un soggetto a partire dalla
sua propria identità. Per inciso, si nota una ciclicità
affine al decennio rosso, in cui il conflitto sociale (dal ’68)
precede la crisi economica (anni ’70) e la ricalibrazione del sistema
politico (Thatcherismo/Reaganismo)
.

E’ con il crollo
delle dot com che si chiude la transizione post-fordista e si apre la
fase del biocapitalismo
.

Ad inizi anni 2000, di
pari passo con la presa d’atto del deficit di istruzione del grande 
pubblico nei confronti delle applicazioni dell’internet dei
cybersoviet e delle asimmetrie informative tra di esso ed i
knowledge worker della finanza, iniziano a concretizzarsi
quelle infrastrutture, dispositivi e design applicativi in grado di
abbattere i costi di accesso per la collettività all’interfaccia
sussuntiva di rete globale, ed aumentarne i margini di profittabilità
per il capitale.

Leve parallele di questa
tendenza sono le rivoluzioni nelle capacità di portabilità e
storaggio dell’informazione, sintetizzate dall’affermazione
progressiva del cloud computing e del "software come
servizio". Come si vedrà in dettaglio più avanti,
l’abbattimento dei costi e l’aumento delle capacità dei dispositivi
di storaggio permettono alle grandi imprese dell’information
technology di dotarsi di enormi datacenter sui cui server su cui far
girare un crescente numero di servizi.

Il primo e più
emblematico di essi, in rapporto alla fase che si stava aprendo, è
quello della webmail: fino ad anni ’90 inoltrati, la
fruizione di internet passava per l’abbonamento ad internet service
provider a dimensione prevalentemente locale, fornitori di
connettività e servizi web. Uno di questi ultimi, la casella di
posta elettronica – che consentiva per la prima volta al grande
pubblico di scambiarsi messaggi online in tempo reale – prevedeva di
default l’installazione di un client per scaricarli sul proprio
computer.

L’entrata sul mercato dei
provider delle telco, desiderose di mettere a profitto un canale
mediale su cui esercitavano un monopolio naturale in molti casi
pressoché assoluto, oltreché al moltiplicarsi dell’offerta di
servizi online di attori del mondo software come Microsoft, reca con
sé l’offerta di spazio web da cui accedere alle proprie
informazioni. Quasi vent’anni dopo l’ubiquità dell’accesso al
credito, viene posta l’ubiquità di accesso ed immissione delle
informazioni in rete, amplificandone la portata e le occasioni di
valorizzazione
.

Da qui al credito mobile
ed alla connessione internet via smartphone, vero e proprio culmine
delle innovazioni biocapitaliste, vi è tutta una successione di
importantissimi passaggi, che portano al consolidamento di una serie
di dispositivi volti ad assicurare la concentrazione dei nuovi
profitti prodotti: sul versante finanzario, che interessa la messa a
valore
capitalista dell’informazione (oltre che della nuda
vita), segnaliamo gli strumenti derivati ed il microcredito. Sul
versante informatico, che interessa la messa a lavoro
capitalista dell’informazione, si possono citare l’introduzione di
digitalizzazione, banda larga, memorie di massa; delle licenze
Creative Commons; del software open source. Quest’insieme di
dispositivi risponde all’esigenza capitalista di trasformare un
mercato di massa, finanche nella sua variante postfordista, in una
massa di mercati per superarne la standardizzazione e l’esclusività
che la globalizzazione aveva prodotto e contro cui era esplosa una
stagione di antagonismo:


1) Includendo quanti più soggetti possibile nel
mercato

2) Dando loro la
possibilità di usufruire di prodotti altamente personalizzati


Ma in che modo?

Costruzione
finanziaria del Biocapitalismo

Nel novembre 1999, dopo
che la proposta di legge ottiene una schiacciante maggioranza in
Congresso, il presidente statunitense Clinton promulga il
Gramm-Leach-Bliley Act (GLBA), noto anche come
Financial Services Modernization Act. Accogliendo
richieste più che decennali da parte di operatori finanziari come
Citigroup, (che già operavano in tal senso nell’illegalità, e che
avevano la possibilità di supervisionare la stesura della legge
grazie ai loro lobbisti in Congresso, ed ad appoggi come il
segretario al tesoro Rubin nell’amministrazione) veniva a cadere il
divieto di fusione tra banche commerciali, d’investimento ed agenzie
assicurative introdotto nel 1933 dal Glass-Steagall Act, emanato dopo
la Grande Depressione del 1929. Si venivano a creare veri e propri
supermarket della finanza, in cui la spinta a coprire ogni stadio ed
ogni contingenza del credito e del risparmio comportavano la corsa
sempre più vertiginosa ad acquisizioni di attività e fusioni tra
operatori con target anche molto differenti.

Fatto cruciale, la legge esentava esplicitamente da
ogni regolazione, controllo e registrazione da parte della SEC (la
commissione statunitense di vigilanza sulla borsa valori) derivati
come i contratti di swap sui titoli, avallandone così l’esistenza di
un mercato parallelo.

 

Boom degli strumenti
derivati 

Nella scia del riassetto
istituzionale appena discusso, i derivati diventano lo strumento
principe per allargare la partecipazione al processo di
finanziarizzazione a fasce di popolazione sempre più ampie. Come?
Questi prodotti finanziari sono titoli il cui valore di mercato è
correlato a quello di altri (azioni, obbligazioni, valute, indici,
tassi, materie prime, altri derivati, ecc.), cioé al loro andamento
borsistico; se io effettuo un investimento rischioso posso tutelarmi
dalla sua eventuale cattiva performance acquistando il derivato
adeguato – che può prevedere la copertura delle perdite con
l’acquisto di un altro titolo o paniere di titoli dall’andamento più
prevedibile, con un rimborso alla stregua di un premio assicurativo,
o altro ancora.

Un esempio di derivati sono le opzioni (Covered
Warrant): esse danno il diritto a vendere o comprare un
titolo ad un dato prezzo e/o durante/allo scadere di un certo
periodo. Se mi impegno a comprare un lingotto d’oro tra un mese al
prezzo attuale, ma nel frattempo il prezzo dell’oro scende, con
l’opzione adatta ho la facoltà di recedere dall’accordo.
Se da
una parte la varietà, versatilità, ed alienabilità dei derivati a
terzi ne assicura il successo come strumenti di copertura del rischio
(hedging) tramite la creazione di piani di investimento
personalizzati, dall’altro ne favorisce lo scambio su mercati in
larga parte informali e non regolamentati, oltreché a fini
speculativi (fino al 2008 negli USA se con il derivato adatto si
acquistava un titolo pagandolo dopo un mese, speculando sulla caduta
del prezzo del titolo in quell’intervallo era possibile ricavare un
profitto anche senza disporre di capitali per garantire
l’operazione): anche in questo riemerge la concatenazione della
riproduzione sociale allargata a quella del capitale. 

Microcredito

Nonostante la loro
popolarità, i derivati non risolvono il problema di chi al grande
casinò della borsa non può partecipare per gravi deficit
infrastrutturali e di competenze, i non-investitori per definizione
come ad esempio gli ultrapoveri dei paesi in via di sviluppo.

E’ qui che interviene il microcredito, creando un
bacino di nuovi consumatori nel riprodurre un surrogato di basic
income
, nella misura in cui si presta denaro a soggetti privi di
occupazione fissa e referenze creditizie pregresse.

Il rischio del capitale,
endogenizzato e compresso in tal modo, viene però a riemergere sotto
altre forme: tassi d’interesse molto elevati, che in alcuni contesti
raggiungono percentuali usurarie; tendenza a privatizzare reti di
protezione sociale locali, sottraendo in tal modo alle comunità
strumenti di autogoverno; scarsa attenzione alle condizioni
lavorative del debitore, cosicché esso si trova in svariati casi ad
affidarsi a lavori usuranti o informali, o a ricorrere ad altri
prestiti, o addirittura diventare un vero e proprio lavoratore
salariato nelle sussidiarie messe in piedi ad hoc dalle istituzioni
di microcredito.

Costruzione
informatica del Biocapitalismo

Come detto in precedenza,
per rendere effettiva la valorizzazione biocapitalista occorre
operare la quantificazione delle infinite variabili che sottendono
alla nostra percezione del mondo e dei viventi, e quindi del sapere.
Lasciando per un po’ da parte le declinazioni di tale quantificazione
maggiormente afferenti all’ambito produttivo – dai crediti
universitari alle agenzie di rating alle certificazioni di qualità –
concentriamoci sul processo seminale di riduzione dei fenomeni
audiovisivi da valori continui a valori discreti.

Infrastrutture e
dispositivi di massa per effettuarlo e veicolare – acquisendo e
riproducendo – tali fenomeni esistevano già (scanner/stampanti,
registratori e videoregistratori); la novità introdotta nel tardo
postfordismo degli anni ’90 sta tutta nel supporto su cui gli
audiovisivi verranno riversati, cioé della convergenza sul formato
digitale. Al di là degli standard proprietari come l’MP3 (1994) per
l’audio ed il DIVX (1999) per il video, e dei nuovi strumenti
impiegati (come le fotocamere e videocamere digitali  degli anni
’90), la novità è rappresentata dalla trasposizione in bit dei
fenomeni audiovisivi, che riduce la durata di un brano e la qualità
di un video alla stessa dimensione. Infatti, per sua stessa
definizione, tutto ciò che è digitale (da digitus, numero)
può essere quantificabile e quantificato; e tutto ciò che può
essere quantificato può essere commerciato. L’architettura di rete
della prima internet era generalmente caratterizzata dalla parità
tra capacità di upload e download; se ciò favoriva la
moltiplicazione dei provider ed evitava i colli di bottiglia dello
streaming (che si basa sulla trasmissione di dati a partire da un
server centralizzato) essa era certamente deleteria per chi volesse
trarre profitto dalle dinamiche generate da una fruizione di massa
della rete, che doveva basarsi incondizionatamente sulla velocità di
download di una quantità di beni e servizi informatici da parte del
grande pubblico. E’ a tal fine che nel 1998 nasce l’ADSL (Asymmetric
Digital Subscriber Line
) che, appunto, penalizza la capacità di
upload di dati da parte dell’utenza in favore di quella di download.
Completa questo mosaico la commercializzazione a fine anni ’90 delle
memorie di massa portatili: grazie ai progressi della
miniaturizzazione si opera un salto di qualità nella mobilizzazione
quantitativa e qualitativa dei dati: quantitativa rispetto al numero
di informazioni e beni di consumo digitali da poter immagazzinare e
di cui disporre, qualitativa laddove ad interi archivi di nastri di
audio e videocassette, enciclopedie cartacee e persino agli stessi
floppy disc, cd e dvd, si sostituiscono hard disk portatili e
semplici pendrive USB.

Licenze Creative
Commons

L’introduzione di queste
licenze nel 2002 ad opera del giurista di Stanford Lawrence Lessig –
desideroso di estendere i valori e le attitudini alla base del
"movimento" dell’Open Source all’intero spettro delle opere
dell’ingegno – rappresenta il primo vero tentativo di gettare le basi
di una sistematizzazione dei diritti di proprietà sui beni immessi
in rete. Possono porsi in forma di condizione o combinazione di
condizioni che ne regolano la circolazione in un regime di copyleft:

– Attribuzione (BY) (deve
essere citato l’autore originale dell’opera)

– No opere derivate (ND)
(l’opera non deve essere modificata)

– Condividi allo stesso
modo (SA) (secondo quanto stabilito dall’autore dell’opera
originaria)

– Non commerciale (NC)
(tranne che per l’autore stesso)


Prestabilire tali condizioni facilita la
diffusione e la rielaborazione di saperi ed opere in misura maggiore
rispetto a quanto avvenga per quelli posti sotto copyright: a tal
fine il pubblico dominio sarebbe inefficace, potendo un’opera
rilasciata in tal modo venire privatizzata semplicemente apportandole
qualche piccola modifica e rivendicandone la paternità. Prendiamo ad
esempio il settore dell’editoria: un’opera sotto copyright, una
volta esaurito il suo ciclo commerciale, può finire non ristampata
per lunghi anni e divenire introvabile, anche in presenza di una
nicchia di consumatori disposta a pagare per averla, mentre ciò non
accade se essa viene rilasciata in creative commons, laddove essa può
essere reperita ed eventualmente sfruttata commercialmente piuttosto
che essere lasciata ai soli vecchi intermediari editoriali. Va
comunque evidenziato, a scanso di equivoci, come tutto ciò non crei
di per sé un economia di tipo comunista: la valorizzazione
dell’opera rilasciata sotto licenze creative commons avviene a valle
della sua pubblicazione, venendo realizzata principalmente sotto
forma di pubblicità ed accesso a contenuti premium proposti da chi
possieda l’infrastruttura attraverso cui viene veicolata: mediatore
che molto raramente coincide con l’autore. Inoltre, non vi è
esplicito riconoscimento del carattere sociale che la rielaborazione
del sapere o del bene riveste, e l’autore può prevenirne l’utilizzo
commerciale.

Software Open Source

Il movimento del Software
Libero, fondato da Richard Stallmann nel 1983 si prefiggeva di
sviluppare software licenziato sotto queste condizioni:

* Libertà di eseguire il
programma per qualsiasi scopo

* Libertà di studiare il
programma e modificarlo

* Libertà di copiare il
programma in modo da aiutare il prossimo

* Libertà di migliorare
il programma e di distribuirne pubblicamente i miglioramenti, in modo
tale che tutta la comunità ne tragga beneficio

inserite nel framework
giuridico della licenza GNU GPL (la cui prima elaborazione risale al
1989 e la seconda al 1991); il tutto per proteggere il codice
dall’appropriazione proprietaria, ampliatasi di concerto con il boom
dei brevetti universitari degli anni ’80. Non solo: la condizione di
viralità, cioé dell’applicazione della licenza GNU GPL anche alle
modifiche del software rilasciato sotto di essa, favoriva la
circolazione non solo del codice in sé, ma anche del modello di
sviluppo software e dell’etica hacker ad esso sotteso.

Nel 1998 alcuni esponenti
del movimento del Software Libero, con il fine di renderlo appetibile
per il big business, danno vita alla Open Source Initiative: ciò
porta all’ingresso graduale del venture capitalism nelle comunità di
sviluppo software, introducendo al loro interno tempistiche e
finalità commerciali. Sono diversi i passaggi organizzativi e
gestionali delle start up della OSI che gettano ponti verso il big
business dell’information technology: tra di essi la
calendarizzazione delle release di nuove versioni dei loro software
(laddove in precedenza essi venivano rilasciati nel momento in cui
raggiungevano un livello di stabilità reputato soddisfacente, o
rispettavano altri parametri di usabilità stabiliti dagli
sviluppatori), la tolleranza o la rivendicazione esplicita della
presenza di pezzi di codice proprietario all’interno di software
libero e di programmi proprietari all’interno di sistemi operativi
liberi, la formalizzazione aziendalista dei ruoli della comunità di
sviluppo.

Tuttavia il salto di
qualità dell’open source in ambito enterprise avviene con
l’implementazione al suo interno delle piattaforme L.A.M.P. (sinergia
di sistema operativo Linux, web server Apache, database MySQL, e
linguaggi di programmazione Perl, Python e PHP): aperte e gratuite,
consentono per questo alle aziende di risparmiare sulla sicurezza e
sulle licenze software. E’ da notare come grazie alla loro elevata
stabilità conquistino il mercato dei server e si ritrovino per
questo sia alla base delle infrastrutture dell’internet in generale
che di molte popolari web application gestite dai nuovi intermediari
dell’informazione (Google, Facebook,ecc.), volte ad incanalare dati
ed elaborazioni dei loro utenti come si vedrà tra poco.

Conseguenze


L’implementazione delle Web Application (dalla
posta elettronica fino ai portali di investimento finanziario online)
determina la crisi del soggetto del lavoratore della conoscenza: con
l’aumento della potenza di calcolo a disposizione dell’utenza e
le nuove web application disponibili – come blog, wiki, fotoritocco
online – non occorrono più l’acquisto di software per il desktop e/o
il possesso di un ampio bagaglio di conoscenze tecnologiche per
produrre e consumare beni digitali che possano trovare anche uno
sbocco di mercato. Per il dilettante che, ricordiamolo, si pone al
centro di quest’ultimo processo produttivo dedicandovi
prevalentemente il suo tempo libero, viene coniata l’etichetta di
prosumer (produttore, consumatore e rielaboratore di
informazioni e beni digitali allo stesso tempo). Per sfruttare il suo
lavoro le imprese del web 2.0, secondo la definizione data da ‘O
Reilly:

  1. Si concentrano
    sull’offerta di servizi piuttosto che su quella di pacchetti
    software.

  2. Usano il web come
    architettura di partecipazione e non solo di comunicazione e
    distribuzione di prodotti, informazioni e conoscenze.

  3. Elaborano efficienti
    strategie di sfruttamento di intelligenza collettiva dei propri
    utenti

  4. Adottano modelli di
    business che sfruttano la creatività fondata sul remixing di
    oggetti culturali esistenti.

Focalizzando i loro sforzi sulla profilazione della
coda lunga – la massa di mercati di beni di nicchia che i prosumer
prediligono, e che quantitativamente nel suo complesso sopravanza la
quota di mercato dei prodotti generalisti.

E il lavoratore della conoscenza? Forse il più
emblematico colpo di coda della tecno-elite è stato quello attuato
da Jon Postel, informatico californiano ed architetto dell’internet
moderna: il fallimento del suo atto di disobbedienza contro
l’accentramento dell’autorità di attribuzione dei domini internet –
operato dal governo americano – che lo vide convogliare a scopo
dimostrativo sul suo computer i rootserver della rete mondiale, è
anche quello del lavoratore della conoscenza nel perpetuare la
propria riproduzione.
La maggior parte di tutta questa
composizione di classe sprofonda nel precariato; ascende nell’ambito
residuale ma importantissimo delle attività che richiedono
flessibilità, creatività, problem-solving generalizzato e
comunicazione complessa – cioé, attività non routinarie che non
possano (ancora) essere svolte da macchine – chi presenti invece tali
competenze.

Inoltre, i lavoratori
della conoscenza solo nella fase espansiva dell’economia a rete hanno
visto coincidere le loro finalità con quelli della riproduzione
economica, che nel biocapitalismo è legata alla riproduzione della
vita stessa: il prosumer viene costruito dalle informazioni che
consuma/produce. E si noti come la classe subentrante cannibalizzi la
precedente: i lavoratori della conoscenza prosperano sui dispositivi
informatici che destrutturano l’operaio massa, e vengono disfatti
dalle web application utilizzate dai prosumer, ormai veri e propri
infoproletari.

Quindi anche nella
composizione sociale la “distruzione creatrice” segue
l’innovazione?

Ancora sull’ economia
dell’attenzione…

Davanti al limite umano
alla raccolta ed elaborazione di dati nel rumore di fondo della rete,
acquistano importanza istituzioni e dispositivi di intermediazione
informazionale. Come osserva Magnus Eriksson, più il valore
economico dell’informazione statica tende allo zero, più diventa
importante l’accesso alla comunità che circonda quelle informazioni,
perché è la comunità che gli conferisce un significato, che
determina se alle fine valgono qualcosa.

Quindi da una parte vi
sono i grandi portali dell’immissione di informazioni in rete: Google
e Facebook da un lato e le piattaforme finanziarie dall’altro – che
non a caso iniziano a convergere. Dall’altra, certificazioni e
strumenti volti a scremare questi portali per estrapolarne ciò che
fa più al caso nostro: da quelle rilasciate dall’ufficialità delle
agenzie di rating (incaricate di valutare i titoli delle imprese in
base alla loro rischiosità – una variazione del rating comporta la
variazione del tasso d’interesse associato ad un determinato titolo)
a quelle più informali degli aggregatori, dei feed RSS, e delle
applicazioni di Social Bookmarking.

E sugli intermediari
del Web 2.0…

Come spiega Dmytri
Kleiner in Infoenclosure 2.0:

"Un investitore del
Web 2.0 ha bisogno principalmente di finanziare la generazione di
hype, marketing e chiacchiericcio. L’infrastruttura è largamente
disponibile a buon mercato, il contenuto è gratuito ed il costo del
software, almeno di quanto di esso non sia anche gratuito, è
trascurabile. Di base, fornendo banda e spazio su disco potete
diventare un sito internet di successo, se siete in grado di vendervi
efficacemente.


Il successo principale di un’azienda Web 2.0
arriva dal suo relazionarsi alla comunità o, più precisamente,
nella capacità di un’azienda di rimanere monolitica nel suo brand
contenutistico o, ancora meglio, nella sua aperta proprietà di quel
contenuto, dischiudendo allo stesso tempo il metodo di creazione di
quel contenuto alla comunità" – come accade per le
compravendite effettuate su Ebay, su cui il sito incassa una
percentuale, o per la produzione di informazioni e valore aggiunto
sui propri prodotti effettuata da Amazon, la quale permette ai suoi
utenti di copartecipare alla costruzione del proprio database
librario: dinamica questa tutt’altro che limitata al web 2.0 e che
verrà brevemente ripresa nel prossimo paragrafo – "Caratteristica
imprescindibile di queste operazioni è il controllo centralizzato e
verticale dell’azienda web 2.0 sul server del suo applicativo.

Dato
che i capitalisti che investono nelle start-up del Web 2.0 spesso non
ne finanziano la prima capitalizzazione, il loro comportamento
diventa peraltro marcatamente parassitario. Arrivano spesso in
ritardo nel processo, quando la creazione di valore ha una buona
spinta, e vi si inseriscono per assumerne la proprietà ed utilizzare
il proprio potere finanziario per promuovere il servizio, spesso
entro il contesto di una rete egemonica di importanti e ben
finanziati partner."

Grazie agli strumenti
open source di data mining e profilazione delle preferenze dei loro
utenti, i social network ed i motori di ricerca le aggregano e ne
ricavano dei trend, che reimmettono in rete sotto forma di “video
più cliccato”, “brano più ascoltato”, ecc, anche se
l’opinione della maggioranza non rispecchia necessariamente la
qualità di un contenuto. Tutto ciò fa saltare all’occhio la stretta
corrispondenza di tali comportamenti imitativi in rete con quelli che
avvengono sui mercati finanziari, sede in cui essi vengono
direttamente valorizzati.

Automatismi di rete: convenzione,
razionalità mimetica e comportamenti gregari

Se accogliamo il
parallelo tra il lavoratore della conoscenza e l’artigiano che –
grazie alle sue innovazioni – alla vigilia della rivoluzione
industriale preparava il terreno per l’avvento dei dispositivi di
organizzazione scientifica del lavoro, e continuiamo ipotizzando una
"proletarizzazione" dell’ambiente di lavoro informazionale
di rete, possiamo a questo punto chiederci se e come si possano
declinare nel contemporaneo quelle forme di lavoro routinario
condivise dagli operai fordisti come la catena di montaggio, che
rappresentavano per essi allo stesso tempo un vettore sia di
alienazione che di riconoscimento reciproco come classe accomunata
dagli stessi bisogni ed obiettivi. Introduciamo due importanti
differenze tra la vecchia e la nuova catena produttiva:

1) nel primo caso gli
automatismi si trasfigurano in dispositivi impersonali ed alienanti,
mentre gli automatismi in rete si pongono come co-partecipazione alla
produzione e riproduzione della propria vita
. Ciò si estende
a tutte quelle forme di lavoro del consumatore che esondano dalle
fibre ottiche di internet per materializzarsi nel montaggio della
libreria Ikea da parte dell’acquirente piuttosto che nella prova di
prodotti "omaggio"

2) gli automatismi
della fabbrica sono giocati sul lavoro morto, quello che rispecchia
la visibilità e materialità della catena produttiva, mentre gli
automatismi di rete, come le convenzioni ed i comportamenti gregari
sono giocati sul lavoro vivo e sulla sua tendenza ad interiorizzare
legami deboli ed interagire con schemi concettuali riduzionisti per
rapportarsi, partecipare o sfruttare la socialità complessa.

La definizione di questi automatismi è tutt’altro che
predeterminata, perché deriva sia dalla reputazione, credibilità e
legittimità degli attori sociali che li determinano che delle
piattaforme che li veicolano (giornali, volantini, bollettini,
televisioni, blog, social network…) e in questo senso l’intera
medialità diventa territorio di conflitto incessante, che porta sia
il segno del potere che quello del contropotere.

Tali automatismi corrispondono alla convenzione,
basata su idee vaghe ma sostenute da uno spaccato trasversale di
investitori e netizen, e consolidata dai mezzi di
comunicazione che si accontentano spesso di convalidare tale
conoscenza indotta dagli stessi investitori, e la razionalità
mimetica
, che indica un comportamento di massa di tipo
gregario basato sul deficit di informazione dei singoli, che si
affidano alla convenzione come economizzatore di complessità, e
riproduce un comportamento imitativo. Ad esempio in finanza la
modalità di comunicazione di ciò che gli “altri” considerano un
buon titolo su cui investire conta più del suo valore effettivo: ciò
porta alla teoria del “momentum investing”, che consiglia
di puntare sugli investimenti rialzisti, vale a dire quelli su cui si
stia precipitando la massa degli investitori, spesso diretti da chi
possieda un alto capitale reputazionale (dal tesoriere della Federal
Reserve a Beppe Grillo…)

Dalla Fucina alla Nuvola. Una conclusione
provvisoria

In una riedizione delle dinamiche della rivoluzione
industriale, con i dispositivi del controllo sociale messi al
servizio della riproduzione economica, le maglie delle nuove
enclosure, quelle del sapere, tornano a restringersi. La
celebrazione del “dilettante”, cioé dell’infoproletario,
rispetto all’”esperto”, il vecchio lavoratore della conoscenza,
non è che una maschera edulcorante per celare l’esodo di questa
nuova figura lavorativa dalle "campagne" preinformazionali,
le vecchie forme di lavoro ormai recintate dai dispositivi di
sussunzione biocapitalisti e dall’organizzazione toyotista, per
alienare la propria manodopera informazionale (i propri dati
personali: e verrebbe da chiedersi se in un simile contesto le
pratiche antagoniste in rete degli anni ’90 e dei primi anni 2000,
come le campagne in difesa della privacy rappresentino un assurdo o
un lusso oppure una via di fuga ancora percorribile e necessaria)
nelle moderne fabbriche, i portali delle web application. Un esodo
quasi sempre drammatico, laddove sull’infoproletario si sovrappongono
appunto le condizioni preinformazionali, di migranti dei contadini
inurbati dei paesi in via di sviluppo, o di precari dei lavoranti a
progetto e sottopagati dei paesi del capitalismo maturo. Dove un
tempo gli operai si perdevano nel fumo delle fabbriche e nei rumori
dei macchinari ora gli info-operai si perdono nella nuvola
dell’informazione riduzionista e nel rumore di fondo della rete,
mentre ritorna a divaricarsi la forbice tra essi ed i possidenti,
infolatifondisti punti di snodo e controllo della ricchezza prodotta
dalla rete allargata – dai vecchi media broadcast e baronati
universitari ai nuovi aggregatori, dispositivi di profilazione e alle
cloud più o meno compiute e ramificate, che arrivano ad offrire ai
loro utenti spazio su disco online dove riversare le proprie
informazioni: e, utilizzando un’espressione informatica, il vivere la
propria esperienza in rete sottostando all’imposizione del "lato
server" che queste ultime pongono in essere non rappresenta
altro che l’ultima forma di schiavitù prodotta dalla
ristrutturazione biocapitalista.

Bibliografia Critica

Andrea Fumagalli, Finanza Fai da Te,
DeriveApprodi 2001

André Gorz, L’immateriale,
Bollati Boringhieri 2003

André Gorz, Miserie del Presente,
Ricchezza del possibile
, ManifestoLibri 1998

Carlo Formenti, Cybersoviet,
Raffaello Cortina Editore 2008

Christian Marazzi, Capitale&Linguaggio,
DeriveApprodi 2002

Christian Marazzi, Finanza Bruciata,
Casagrande 2009

Dmytri Kleiner, Copyfarleft,
copyjustright e la legge ferrea degli introiti da copyright – oltre
il copyleft verso dei commons autonomi
2007

Dmytri Kleiner e Brian Wyrick,
Infoenclosure
2.0
2007

E-Laser, Il
Sapere Liberato
, Feltrinelli 2005

Geert Lovink, Internet non è il
Paradiso
, Apogeo 2004

Geert Lovink, Zero Comments,
Mondadori 2008

Ippolita, Open
non è Free
, Eleuthera 2005

Ippolita, Luci
ed Ombre di Google
, Feltrinelli 2007

Nicholas Carr, Il Lato Oscuro della
Rete
, ETAS 2008

Nick-Dyer Whiteford, High-tech
Proletariat
,
in
Cybermarx:
Cycles and Circuits of Struggle in High Technology Capitalism
,
University of Illinois Press 1999

Richard Barbrook ed Andy Cameron,
L’Ideologia
Californiana
1995

  1. Nessun commento ancora.
(non verrà pubblicata)