Riprendiamo le pubblicazioni di Transuenze, la rubrica che si occupa delle trasformazioni del lavoro e dell'economia, con una storia «artigianale» dell'Intelligenza Artificiale.
Per rintracciare la genealogia di questa tecnologia, bisogna partire da lontano - da quando l'informatica applicata si orienta verso la costruzione di linguaggi artificiali in analogia con la lingua naturale - passando per varie innovazioni fino agli anni Novanta - decennio in cui si sviluppa un'euforia diffusa per questo paradigma tecnologico - e arrivando ad oggi, quando diverse attività cognitive, prima considerate come patrimonio umano esclusivo, sono ormai svolte dalle «macchine». Con effetti sociali risibili? Nient'affatto ci dice l'autore. L’IA, infatti, genera un nuovo sistema di caste con un’élite di superricchi, un sottoinsieme relativamente piccolo di lavoratori con mansioni di strategia e pianificazione e una massa enorme di creativi sottopagati e una popolazione mondiale impiegata in regime di schiavitù.
***
Il report di minoranza
L’estensione dell’intelligenza artificiale all’insieme delle attività quotidiane è l’indice che il presente ha fatto storia, ed è la storia dei nostri giorni sulla scena della vita mondiale. È una storia raccontata varie volte, ma che, per quanto si cerchi di cogliere l’impercettibile, non coincide con ciò che c’è.
Sembra piuttosto che questa storia si sia consumata nel giro dei primi due decenni e mezzo di questo secolo. Che perfino l’epoca contemporanea sia trascorsa dopo aver raccolto l’archivio delle polemiche sulla modernità, il post-moderno e l’ipermoderno, e che una storia «storica», già scarica alla metà degli anni Sessanta del secolo scorso, continui a risolversi nelle tronfie asserzioni sulla tecnica distruttiva e il ripristino di una realtà umana. D’altra parte, l’informatica ha una storia raccontata come progresso, secondo il credo storicista che la critica denunciava dalla fine degli scorsi anni Cinquanta.
In questo doppio vincolo – il racconto di una continuità nello sviluppo lineare dei secoli dell’occidente, e l’invocazione ad un sapere dell’uomo che lo riporti al centro del mondo tecnologico – uno sguardo archeologico sembra poter discernere il momento in cui il passato emerge nella differenza con il presente.
Un’archeologia del sapere, dopo che il volto di sabbia è stato cancellato dall’orlo del mare, potrà riferirsi a questo secolo avendo alle spalle la genealogia dei dispositivi di sapere-potere e l’insieme dei rapporti tra soggetti e verità di cui sono intessute parole, cose e azioni.
Per altro, l’archivio delle tecniche e degli usi, dei discorsi e delle pratiche, è già visibile nel sorvolo del mondo: il perimetro delle tecnologie digitali non vi coincide, le applicazioni informatiche producono un’eternità di frammenti di tempo, il calcolo e la previsione suppongono un agente distante dalla macchina e interno ad un ambiente.
L’archeologia dell’informatica consegna questo rilievo. In questa sequenza c’è una ragione: la raccolta di ingenti quantità di dati e l’aumento esponenziale della capacità di calcolo generano strategie per l’aumento continuo dei profitti con il massimo numero possibile di variabili nel gioco della previsione.
Il filosofo Reiner Schürmann avrebbe detto che funzionari dell’umanità e difensori della città, ovvero mercanti di futuro, avrebbero lanciato lo slogan per far ripartire il moderno, il nuovo, il normale senza eccezioni. L’utopia neo-tecnologica, l’accesso eguale e la condivisione, tutte le formazioni discorsive con cui ottimisti e critici indicavano la ristrutturazione capitalistica e la smaterializzazione del mondo si riferivano ad una macchina mondiale astratta che era ed è una macchina da guerra.
La visione informatica del mondo analoga al funzionamento del cervello si costituisce nell’identità di vita e pensiero. La neurobiologia e la biologia molecolare comprendono il cervello come un hardware su cui gira un software. Il circolo chiuso dell’informatica produce dispositivi autoriferiti che riducono la realtà a numeri e il linguaggio alla funzione comunicativa. Con l’equivalenza dell’individuo e della società si stabilisce il sistema dell’informazione che si autoregola nella miriade degli scambi. Come scrivevano Deleuze e Guattari «il rapporto dell’uomo e della macchina si fa in termini di reciproca comunicazione interna, e non più d’uso o d’azione».
C’è da notare che la macchina intelligente, che in una tradizione storico-filosofica di lunga durata proviene dal Golem e dal cosmo greco e che ha conosciuto le trasformazioni dell’automa lungo la storia della metafisica, arriva ad essere indagata e proposta come tema etico e politico-economico nel momento in cui di quella storia si può fare la sintesi.
L’orrore di Cartesio per la possibilità anatomica di indistinzione dell’animale dall’uomo e dall’automa, che comportava l’errore della scienza al maschile, decontaminata e razionalmente religiosa, si converte via Hobbes nel mostro magnifico dello stato, la macchina organica del corpo del sovrano fatto alla lettera dei corpi dei sudditi.
La cibernetica, cioè l’azione di pilotare, guidare, dirigere, è quel dispositivo che le successive crisi della modernità non riducono a epifenomeno via via più integrato alla vita quotidiana e che non cessa di costituirsi come tekné: un’arte, un insieme di pratiche, riferito a nozioni, concetti e programmi automatici. Da un’archeologia della cibernetica emergono: le concrezioni di sapere-potere inerenti ai rapporti tra umani e macchine e tra organismi e ambienti artificiali. Un’analitica dei dispositivi di governo della vita.
La storia dei modi di soggettivazione che la macchina implica nel suo progresso e nelle regressioni che produce, nelle direzioni che prende dalla ricerca informatica e nei blocchi che l’arrestano.
Ma l’elemento che emerge più chiaro dalla genealogia dell’automazione è la differenza tra mitologia e uso della macchina. Diversamente da altre mitologie, il mito della macchina, destinato al successo nella storia della letteratura, non ha prodotto una realtà alternativa mentre ha generato una serie di trasformazioni che si riferiscono agli effetti dei dispositivi informatici sulle persone.
Il racconto prevede l’esame iniziale delle differenze tra il generico tempo informatico e delle reti, segnato dall’ipotesi informatica; le differenze di materia tra informatica digitale e algoritmica; gli effetti di soggettivazione dei suoi impieghi; i modi e le retoriche con cui l’IA viene raccontata e l’ordine del discorso con cui ricorre; gli agenti produttori e di gestione e il tipo di sapere sprigionato da una tecnologia di accumulo, estrazione e produzione di informazione selezionata; gli spazi di potere che l’IA apre e i limiti di questi poteri che segnano i confini a partire dai quali una tecnologia incontra delle resistenze.
Nella sterminata letteratura sull’IA è difficile seguire una linea di interpretazione univoca e soprattutto circoscrivere l’oggetto. Anche convertendo la domanda «che cos’è?» in «come funziona?», il campo di senso occupato dall’insieme di ricerche, pratiche e applicazioni, pur essendo nettamente identificato, sfugge all’analisi.
Ad oggi, testi e documenti sull’IA sono in prevalenza manuali tecnici per aziende, imprese e servizi pubblici finalizzati all’organizzazione di impresa, alla gestione del capitale umano, all’ottimizzazione delle risorse; oppure sono testi divulgativi che forniscono sintetiche spiegazioni sul modo e sulle procedure di funzionamento dell’IA; oppure, sono testi apologetici e di produzione di senso comune, o, più rari, saggi di taglio «problematico» su aspetti positivi e negativi dell’IA. Per tentare una sintetica ricostruzione del tema è bene orientare lo sguardo su questa rarità in cui forse consiste il profilo storico-evolutivo dell’IA. Che tutto derivi dall’idea della guerra è ormai noto: Robert Wiener ottiene l’incarico di sviluppare una macchina per prevedere e controllare le posizioni degli arei nemici in caso di attacco nucleare. Nel 1943 Wiener incontra von Neumann, incaricato di costruire potenti macchine di calcolo per sviluppare il «progetto Manhattan», cioè la bomba atomica. L’utopia della comunicazione è il mito complementare al nucleare.
Memoria a 256K
Arpanet, nata nel 1969 e chiusa nel 1983, era una rete a commutazione di pacchetto che collegava i centri di calcolo affiliati all’Advanced Research Project Agency del Dipartimento di Difesa statunitense. L’informatica applicata si orienta verso la costruzione di linguaggi artificiali in analogia con la lingua naturale, di supercomputer di stazza enorme e di sistemi di crittazione. Nasce l’ipertesto, un insieme di documenti in relazione con parole chiave che funzionano come collegamenti.
Negli anni Settanta il protocollo TCP/IP permette la comunicazione tra diverse reti e non solo tra PC.
Con la produzione di massa di PC desktop e l’invenzione nei garage californiani dei sistemi operativi e delle prime applicazioni, la tecnologia delle reti si estende e l’uso delle macchine diviene sempre più intuitivo. Giovani maschi bianchi che usano pseudonimi sviluppano software open source e un’etica della condivisione in cui si costituiscono comunità hacker.
Nel 1991 l’informatico inglese Tim Berners Lee pubblica il primo sito web. Nasce il World Wide Web (www) e nasce insieme al primo browser, Nexus, non commercializzato perché ad esclusivo uso dimostrativo. Nel 1993 il CERN di Ginevra decide di rendere pubblico il codice sorgente, cioè il testo di un algoritmo di un programma che definisce il flusso di esecuzione del software.
Insieme al software Lee e Robert Cailliau definiscono standard e protocolli per lo scambio di documenti: il linguaggio HTML e il protocollo di rete http. Nel 1994 Netscape, primo browser commerciale, sviluppa il cookie (biscottino), bit di codice che consente il passaggio di informazioni tra server e client. Nel 1998 Berners Lee definisce lo standard XML, un metalinguaggio che consente di aggiungere informazioni sui contenuti web attraverso tag (targhette), cioè parole chiave o termini associati al contenuto.
Alla fine dello scorso secolo le tecnologie digitali accelerano. La Silicon Valley diventa l’ombelico del mondo. Gerarchie informali, il lavoro come gioco di relazioni e di passioni, sperimentazione di programmi e invenzioni, erano gli aspetti più nuovi delle start-up che fino al 1999 circa ottennero finanziamenti e rimasero indipendenti.
All’epoca il sociologo Carlo Formenti ricostruiva origini e sviluppo delle start-up di Silicon Valley e della controcultura californiana alle spalle dell’idea di software libero, condivisione e uso «democratico» della rete. E lo faceva in due saggi storico-sociali, Incantati dalla rete e Mercanti di futuro, mostrando l’intreccio tra neoliberismo e net-economy, cioè quella piega originale della storia alla svolta neoliberale dei primi anni Ottanta in cui esperimenti e desideri degli anni Settanta diventano spinte di contrasto al «vecchio» capitalismo industriale e alla macchina statale.
Esemplare è la vicenda di Lee Felsenstein, pioniere della rivoluzione digitale e della cultura hacker, leader del mitico Homebrew Computer Club, dove dal 1975 al 1986 si incontrano, tra gli altri, Steve Wozniak e Steve Jobs. Scopo del club era la compravendita di componenti e di circuiti e lo scambio di informazioni e di schede per costruire il primo PC accessibile a tutti. Nel 1977 Wozniak e Jobs lanciano il primo PC desktop. Bill Joy co-fondatore della Sun Mycrosistem nel 1982 inventa la prima versione del linguaggio Java. Tutti costoro, come anche Ted Nelson che teorizzò l’ipertesto, e come Douglas Engelbart, inventore del mouse e delle interfacce «a finestra», condividevano il principio della libera ricerca non subordinata al denaro.
Alcuni di loro come Bill Gates invece avevano idee diverse. Con una lettera accusò gli «hobbisti» dei computer di aver rubato copia dell’Altair 8800 realizzato dall’Homebrew. Secondo il patron di Microsoft le invenzioni informatiche realizzate da singoli e gruppi erano proprietarie e non cedibili ad altri. Nel 1975 Gates e Paul Allen propongono al MITS, società che aveva sviluppato l’Altair, il linguaggio BASIC. Nel 1976 contemporaneamente alla nascita di Apple, Gates e Allen fondano «Micro-soft» con la finalità di vendere BASIC ad altri distributori. Dopo un’aspra battaglia legale con MITS, Gates ottiene di vendere il prodotto ad altre aziende.
Fino alla metà circa degli anni Novanta l’ambiente delle tecnologie informatiche è intriso di creatività e ideologia del mercato, comunitarismo e innovazione, condivisione e individualismo. L’utopia tecnologica doveva essere accessibile a tutti, studenti, comunità, tecnici hacker. Da questo assunto proviene lo sviluppo dei software «user friendly» e del PC che diventa una macchina per comunicare, giocare, lavorare. Da questo ambiente di contrasto nascono la Free Software Foundation, promossa da Richard Stallmann, e il software open source Linux creato dal programmatore Linus Torvalds, che avrebbe conosciuto un’estensione imprevista generando decine di distribuzioni come Ubuntu, Fedora, OpenSuse. L’idea di Felsenstein e altri era di strappare le conoscenze tecnologiche alla grande industria informatica, anzitutto all’IBM. Da questa situazione l’incontro con il mercato genererà modelli di business e stili di vita. Ma, al contrario delle comunità informatiche, Bill Gates non vuole abbattere il monopolio di IBM bensì sostituirlo con Microsoft.
Passano circa venti anni prima che Microsoft colonizzi internet; nel 2000 viene accusata di aver sfruttato la sua posizione dominante integrando il browser Explorer nel sistema operativo Windows e danneggiando la concorrenza, soprattutto il browser Netscape, liberamente scaricabile. Nel novembre 2000 Microsoft e governo federale rendono pubblici i termini di un accordo che vanifica il processo. L’accordo prevede la rinuncia di Microsoft a politiche commerciali discriminatorie. I produttori di hardware devono poter installare il software che ritengono più opportuno e devono poter conoscere le informazioni tecniche per rendere più compatibili i loro prodotti con Windows. Ma Bill Gates ha vinto e il sistema operativo XP è ancor più «chiuso» mentre Microsoft estende ancor più il suo monopolio. Contro Linux, Gates afferma che il software libero «ha le caratteristiche del comunismo...cioè è gratuito» e questo proprio nel momento in cui l’open source comincia ad avere successo sul mercato delle app commerciali.
Tuttavia la guerra informatica continua. L’industria high tech si scontra con l’industria culturale. Napster, il software di condivisione di file musicali MP3, le reti «peer to peer», Gnutella, network libero di condivisione, sono i bersagli delle case discografiche e del Digital Millenium Copyright Act (1998) che criminalizza programmi e reti di condivisione.
Tra la fine del 2000 e il 2001 non esisterà innovazione senza brevetto, la proprietà intellettuale sarà rafforzata e il copyright garantito; le corporations assumeranno un crescente controllo sui tempi e gli obiettivi della ricerca nei laboratori delle università, mentre le università si comporteranno come imprese private. La privatizzazione della rete sarà uno dei momenti originari della globalizzazione dei mercati.
Ma, scriveva Formenti, quella delle case discografiche si era rivelata una vittoria di Pirro: anzitutto, perché l’innovazione della musica digitale aveva prodotto un cataclisma epocale sull’intera filiera della produzione e del consumo di suoni; in secondo luogo perché l’elevata concentrazione oligopolistica del settore alimentava cause antitrust; in terzo luogo perché Napster era stata sostituita da altri network di condivisione; infine, perché il rafforzamento del copyright alimentava lo scontro dell’industria dell’entertainment con le vecchie case discografiche che sfruttano artisti e tecnici.
Questi motivi saranno rappresentati da Lawrence Lessig in un saggio storico del 2001, The future of Ideas, che ha circolato nelle communities, ha prodotto l’idea di un nuovo diritto che supera il copyright e ancora oggi restituisce alcune possibilità alla produzione di un non-diritto vòlto all’accesso personale a oggetti e prodotti in rete.
Con la deflagrante crisi finanziaria del 2001 Silicon Valley precipita e inizia una nuova fase di privatizzazione di internet con l’impiego di ingenti capitali e l’istituzione del web 2.0, cioè di quelle imprese che, ricorda l’ attivista Tiziana Terranova in Dopo Internet, erano sopravvissute al crollo del NASDAQ.
Con la nascita dell’e-commerce e la chiusura proprietaria della rete, il produttore-consumatore incensato e oltraggiato negli scorsi anni Novanta, diviene il soggetto della macchina informatica. La produzione di merci è produzione di soggettività, ma non al modo della subordinazione totale del lavoro al capitale, bensì della cattura microfisica di spazi, tempi, desideri e attività che opera sui corpi e produce macchine intelligenti.
Questa grande trasformazione, che la teoria critica fino a quando è esistita non ha letto, è stata intuita e narrata dalla fantascienza e dalla letteratura cyberpunk, da Bruce Sterling a William Gibson, e dal cinema, che sono stati importanti agenti di proficua contaminazione dell’immaginario e sono i veri indicatori storici dei processi di astrazione e di estrazione della macchina cibernetica.
L’hacker è diventato influencer, scrive Tiziana Terranova, ma, aggiungiamo, deve esser passato per la cybersecurity al servizio di governi e multinazionali; il «libero» produttore di contenuti digitali è diventato promotore di eventi e forme di vita alternative del tutto integrate in una spontanea normalità; il semplice «utente critico», una volta prosumer, invece che aver intensificato la vita della mente, è diventato il demente digitale; l’eventuale diritto generato dalla ricchezza informatica, come sosteneva Yochai Benkler, è scomparso ed è riprodotto dai meganetwork negli slogan sulla libertà.
Tra la crisi del 2001 e quella del 2008 il capitalismo delle piattaforme assume la forma del network di servizi ed entertainment. Il lavoro libero e gratuito degli utenti viene riconvertito in risorse accumulate in archivi di dati. Si costituiscono network globali e i mercati dell’elettronica si unificano. La rete mondiale viene implementata e crescono la grafica digitale e la produzione smaterializzata. Internet diviene veicolo e infrastruttura della globalizzazione. La rete muta in superfice di sorveglianza ed espropriazione dei dati personali. Nel 2001 lo «scandalo Enron», multinazionale statunitense dell’energia che aveva prosperato nella new-economy, che aveva gonfiato i bilanci, evaso il fisco e operato illeciti, dimostra che l’intera architettura speculativa dell’economia finanziaria è al collasso.
Dopo l’11 settembre e la guerra permanente al terrorismo in Afghanistan e in Iraq, internet diviene anche rete di spionaggio e di controllo individuale. Metodi di analisi specifica, con finalità di profilazione degli utenti saranno adottati da Google che nel 2002 fece in modo che Google Search fosse il primo servizio ristrutturato come fonte di informazioni. Gli introiti arrivarono a 347 milioni di dollari, quindi a un miliardo e mezzo e a 3,2 miliardi nel 2004 quando fu quotata in borsa.
Con lo sviluppo dell’informatica tascabile, smartphone e lettori, le tecnologie digitali divengono sempre più interattive ma richiedono lo sviluppo di tecnologie di sicurezza. La cybersecurity diverrà il settore più lucroso in ragione della protezione privata di big data e della speculazione finanziaria.
I telefoni cellulari diventano le protesi più comuni, la rete diviene l’infrastruttura del governo degli scambi, mentre si moltiplicano i conflitti per il software libero e le pratiche di resistenza all’informazione globale. Nel 2006 WikiLeaks inizia a pubblicare documenti coperti da segreto di stato, militare, industriale, bancario, dando vita al più importante network di informazione indipendente. Le menzogne della guerra al terrorismo con l’invasione dell’Afghanistan e dell’Iraq e le torture a Guantanamo, gli oligarchi russi, le banche svizzere sedi di riciclaggio ed evasione fiscale, rivelano la verità del mondo globale.
Google, Amazon e Facebook (ora Meta), Netflix, Prime e Disney Plus, dopo la crisi del 2008, sono divenuti agenti di soggettivazione dell’e-commerce, dello streaming e del cloud computing, controllano microimprese e mercati secondari, sono agenti governativi e contribuiscono allo sviluppo di tecnologie belliche.
In un ponderoso testo del 2019, Il capitalismo della sorveglianza, Shoshana Zuboff, docente alla Harvard Business School, rileva il senso delle tecnologie come dispositivi di governo della vita. Eric Schmidt, ex-ceo di Google, evidenziava qualche anno fa che «le tecnologie più profonde sono quelle che scompaiono. Si legano al tessuto della vita quotidiana fino a diventare indistinguibili da esso». Le invenzioni di Google, scrive Zuboff, hanno rivoluzionato l’estrazione, imponendola come primitivo imperativo economico del capitalismo della sorveglianza. L’estrazione di dati e informazioni diviene la principale attività tecnologica che, unita all’enorme capacità di calcolo, trasforma l’intera infrastruttura digitale.
L’estrazione va intesa in due sensi: come estrazione di valore dagli archivi di dati di proprietà di Google, Amazon, Facebook, attraverso un’analisi computazionale; e come estrazione di relazioni sociali e infrastrutture materiali con le quali le piattaforme impongono la propria autorità su tali «materie prime» in un’economia di scala.
Parole, cose, azioni, persone, processi e merci sono reinventati dall’informazione. I dati sensibili rivelati da miliardi di utenti sono messi al servizio di un advertising mirato. L’esperienza personale viene catturata e costretta a diventare materia prima da accumulare e analizzare. L’intelligenza delle macchine, dovuta in massima parte alle infrastrutture, consente operazioni in hyperscale, con data center che richiedono milioni di server virtuali in grado di crescere esponenzialmente senza aver bisogno di spazio fisico. Il dominio di Google è dovuto per l'80% alle infrastrutture, «con un sistema che comprende data center customizzati grandi come magazzini distribuiti in quindici luoghi diversi, con 2,5 milioni di server in quattro continenti, secondo le stime del 2016».
Un panopticon diffuso, anonimo, capillare, interno ai dispositivi di sorveglianza si genera dallo stato di connessione multimediale permanente. Questo stato psico-sociale, tra la fine del primo e l’inizio del secondo decennio di questo secolo, ha iniziato a circoscrivere la libertà individuale.
Nel 2013, William Snowden, collaboratore della NSA statunitense rivela i programmi di sorveglianza di massa su internet e di intercettazione telefonica, PRISM, Tempora e altri, in uso tra Stati Uniti e Gran Bretagna.
È in questa sequenza storica che l’IA diviene la tecnologia di punta con un rapidissimo sviluppo negli ultimi anni, anche a causa della pandemia, accompagnando una imperiosa guerra capitalistica per lo sfruttamento di dati, risorse e minerali rari. La crisi dell’economia globale, la distruzione ambientale, la condizione permanente di disuguaglianza e l’aumento della povertà, razzismi e discriminazioni dilaganti in regime di guerra, sono gli elementi di questa storia.
Il sociologo dei media Derrick de Kerchove nel corso degli anni ha tracciato il perimetro del campo di socialità in cui si affrontano connettività, controllo e libertà. L’intelligenza è condivisa da esseri umani, istituzioni e macchine che possono o meno assumere un’identità collettiva o sociale. Ma esiste un’intelligenza dell’ambiente, un intelletto della natura, un’intuizione del cosmo che nella crisi degli ecosistemi produce e consuma libertà, e lo fa non per mezzo di una razionalità dispiegata, piuttosto sul piano pre-discorsivo del senso comune, dell’ovvio, del simile. Questo evento, che si consuma dagli inizi del nostro secolo, ha esaurito l’intelletto pubblico e ha introdotto la nozione di libertà separandola dallo spazio privato.
In uno scritto del 2013 sull’accelerazionismo Franco «Bifo» Berardi rilevava come l’accelerazione, che è funzione della velocità del capitalismo sia nello sfruttamento di vita e di risorse che nell’aggiornamento continuo delle piattaforme tecnologiche in cui è inscritto, «distrugge le condizioni della socialità dal momento che questa si fonda sul ritmo del corpo desiderante che non può accelerarsi oltre un certo punto senza provocare lo spasmo». Intensificare l’accelerazione non libera, al contrario, rende inermi i corpi e vulnerabili forme di vita che vengono strappate a ritmi e movimenti e travolte dalla loro stessa esistenza. La strategia catastrofica si è rivelata falsa «perché il processo di soggettivazione autonoma è devastato dall’accelerazione caotica».
Fino a quando c’erano dei media egemoni, fino all’epoca della Tv e dei giornali, c’è stato un intelletto collettivo in cui si riconoscevano sia i poteri che i contropoteri. Non a caso il movimento oggetto di una criminalizzazione che continua ancora oggi è stato il Settantasette. Il Settantasette è stato intollerabile perché anticipava l’avvenire senza esaurirlo. Il desiderio, che è sempre transindividuale e che era desiderio di restituire, qui e ora, la vita alla sua origine comune e tribale, è stato catturato dalla microfisica sociale prima che dalle istituzioni molari e dai mercati. Quel tribalismo non era il tribalismo del pensiero di oggi, che è invece caos in cui consiste l’estrazione di vita e di risorse.
Le insurrezioni del secondo decennio dei Duemila, dalle prime rivolte delle bainlieues a Nuit debut, alle primavere arabe, a Occupy e 15-M, hanno usato smarthphone e social, ma l’intelligenza collettiva era da tempo archiviata, e No tav e blocchi della logistica rispondevano piuttosto all'urgenza di bloccare la corsa distruttiva, di smontare i cantieri fisici e concettuali dell’alta velocità che devasta ambienti, relazioni e saperi, più che attendere che il treno deragli.
Perché se è vero che il «pubblico» del pianeta comprende tutte le forme di vita, piante, animali, rocce, è un’archeologia del pensiero non una produzione teorica a poter forse restituire il senso, cioè la direzione, di parole, cose e azioni, a partire da ciò che siamo stati.
Storia dell’IA che l’IA non può raccontare
Il termine «Intelligenza Artificiale» fu coniato nel 1956 dallo scienziato informatico John McCarthy durante il leggendario Darthmouts Summer Research Project on Artificial Intelligence. Nei quarant’anni successivi le applicazioni pratiche evolsero lentamente. Nel 1996 il supercomputer DeepBlue sconfigge a scacchi Gerry Kasparov. Il momento di svolta è nel 2016 quando AlphaGo, una macchina costruita dagli ingegneri di Deep Mind, sconfigge in cinque round il campione di Go Lee Sedal.
Poker, Go e videogiochi sono stati «giocati» da macchine così potenti da imparare in quattro ore a giocare a scacchi. Ma, sostiene il filosofo e attivista Miguel Benasayag, la macchina non ha mai giocato, se il gioco è un gesto in base ad un significato. La macchina è incapace di distinguere le operazioni di un sistema dal significato dei gesti, benché riesca a leggere le microespressioni facciali.
Kai-Fu Lee, già presidente di Google China e dirigente Microsoft, SGI e Apple e co-presidente del Consiglio per l’Intelligenza Artificiale del World Economic Forum, afferma che l’IA, a differenza delle tecnologie digitali di rete, è omniuso, innescando cambiamenti in tutti i settori e nelle facoltà fisiche e cognitive. La rapida evoluzione delle tecnologie digitali secondo Lee è il quarto stadio di un processo lungo circa 15 anni: da internet alle applicazioni finanziarie, ai servizi pubblici, alla logistica e alla sanità; quindi ai beni di consumo, all’educazione e al backoffice (2012); quindi all’energia, ai commerci, alla sicurezza e alla realizzazione di smart cities (2016); fino all’IA autonoma, alla robotica, ai trasporti e all’agricoltura (2018).
Fino a qualche anno fa Cina e Stati Uniti erano i paesi leader. Gli Stati Uniti implementavano la ricerca, la Cina creava applicazioni sfruttando i big data, ma questa differenza economico-politica oggi sfuma nelle feroci guerre per le risorse energetiche tra l’occidente al tramonto e i paesi ex-emergenti che rappresentano un’alternativa al sistema di dominio tecnologico statunitense.
Il giudizio comune sull’IA è che ha avuto e avrà un impatto più positivo che negativo sul «nostro» standard di vita; che creerà una incredibile ricchezza, stimata al 2030 in 15,7 migliaia di miliardi; che aiuterà a ridurre fame e povertà; che farà guadagnare tempo; che sarà sempre più usata per analisi quantitative, aumento della produttività e potere di previsione per la creazione di una realtà di mercato in cui prosperano profitti non provenienti dallo scambio ma dalle promesse espresse dagli algoritmi. Da Apple, Google, Microsoft, alla Open AI di Elon Musk, l’ordine del benessere è regolato sulle pratiche commerciali di Amazon, fino a quando potranno costituirsi colonie su Marte.
Rispetto a internet e all’informatica di massa, l’IA è una infrastruttura di macchine a base di dati in continua implementazione. Big data e potenza computazionale ne sono gli elementi costitutivi. La ricerca si è sviluppata lungo due direttrici: l’IA simbolica, impostata sulla soluzione di problemi (ad esempio l’enigma dei missionari e dei cannibali) e l’IA subsimbolica. Solo la seconda si è dimostrata promettente nelle forme del percettrone, che simula una rete di neuroni, e delle reti neurali che sono multistrato.
Melanie Mitchell, docente di Computer Science, che ha seguito l’evoluzione dell’IA dagli scorsi anni Ottanta, in un saggio divulgativo importante, L’Intelligenza Artificiale, ha tracciato la breve e intensa storia del machine learning, mostrando le direzioni di ricerca, le crisi e la scelta del modello neurale che connette una molteplicità pressoché infinita di nodi in strati sovrapposti e ha una capacità di calcolo altrettanto infinita.
L’IA è un’infrastruttura input-output in cui un insieme di istruzioni di elaborazione dati addestra una macchina per ottenere risposte attese. Quanto maggiore è la capacità computazionale della macchina tanto più raffinata e profilata sarà la risposta. Un limitato insieme di istruzioni condensato in un algoritmo opera la grande massa di dati e seleziona, tra n risposte, quella più vicina alle attese. In pratica la risposta è preimpostata. L’IA viene «addestrata» e si auto-istruisce funzionando. Il processo si chiama deep learning e consiste nell’elaborazione delle istruzioni per una quantità crescente di dati. É un processo autoriferito il cui linguaggio si limita alla esclusiva funzione comunicativa. Gli strati software di reti simil-neurali insieme all’istruzione data in input sono creati dalla macchina in un ciclo autopoietico.
Le app di IA apprendono in maniera sempre più raffinata con migliaia di strati di dati. La rete è addestrata per una «funzione obiettivo» e quando ha imparato può operare secondo inferenze. La funzione-obiettivo delle reti deep learning è il denaro. Immediata o quasi immediata, nella finanza, nelle economie di scambio e nei commerci; mediata nelle attività creative e di riproduzione o ricreazione o ampliamento di realtà – a partire dal consumo di immagini, eventi, informazione e spettacolo, – la funzione obiettivo è accumulare denaro.
Il deep learning, singolarizzato in base ai pattern dell’utente, produce risposte personalizzate proponendo merci specifiche con lo scopo di massimizzare la spesa del consumatore. In questo modo social network e grandi network di e-commerce profilano il cliente con una accuratezza che mancava ai siti web statici. L’effetto è la pagina Amazon da cliccare per avere merci-Prime in 24 ore.
I social e le grandi piattaforme possiedono la gran parte dei big data. Le statistiche implementano il profilo all’infinito e tracciano ogni giorno il singolo cliente. Queste operazioni sono collegate a metriche aziendali in funzione dei profitti. Più la piattaforma è in grado di raccogliere dati, più soldi genererà.
Nel caso delle assicurazioni sulla vita, i big data affluenti con i dati sensibili sono elaborati dalla macchina che è «addestrata» a determinare le possibilità che, ad esempio, l’utente possa sviluppare gravi problemi di salute, o che possa investire quote della pensione integrativa in base alle previsioni di profitto dei mercati finanziari, o possa prevedere e negare richieste di risarcimento sanitario.
Ma come nel racconto di Chen Qiufan, co-autore con Kai-Fu Lee di AI 2041, l’app della compagnia di assicurazioni Ganesha, – siamo a Mumbai – condiziona del tutto la vita di una famiglia povera, al punto da dettare in tempo reale gusti, affetti e comportamenti per far abbassare il premio.
Uno dei settori in cui l’IA si è rapidamente sviluppata è la computer vision, cioè la creazione, manipolazione e produzione di immagini indistinguibili dalla realtà. La procedura si chiama deep fake. Al computer viene «insegnato» a vedere in modo che possa catturare ed elaborare immagini, rilevare oggetti dividendo l’immagine in aree principali, riconoscere oggetti e apprendere le differenze, tracciare e riconoscere movimenti e gesti, comprendere scene. L’editing video divide in frame il flusso di immagini per secondo; l’immagine è composta di decine di milioni di pixel; l’IA legge i pixel e segmenta gli oggetti fino ai dettagli.
Il deep learning per il riconoscimento è ispirato alla fisiologia del cervello. I campi ricettivi della neocorteccia identificano forme, linee, colori, angoli che sono organizzati gerarchicamente. Allo stesso modo dei campi percettivi le reti neurali convoluzionali (Cnn) applicano alle immagini diversi filtri che dai livelli più bassi ai più alti individuano un insieme di caratteristiche sempre più complesse.
L’esempio riportato sia da Mitchell che da Lee è l’immagine del gatto. Una rete deep learning viene addestrata a «capire da sola» la differenza tra le foto di un gatto e tutte le altre che non sono un gatto. L’addestramento è un’elaborazione matematica che aggiusta i miliardi di parametri della rete al fine di massimizzare la possibilità che l’input della foto del gatto abbia come risultato l’output «gatto». Quando la rete ha imparato può operare secondo inferenze con immagini che non ha mai visto.
Le applicazioni sono svariate: assistenti alla guida, negozi autonomi, sicurezza aeroportuale, riconoscimento facciale e dei gesti, applicazioni militari, navigazione autonoma di droni e auto. L’enorme possibilità della computer vision allarga all’infinito la bio-sicurezza, cioè il tracciamento continuo di ogni singolo vivente e diversifica le operazioni sulle immagini abolendo la distinzione tra creazione, produzione, riproduzione e simulazione. La macchina crea falsi e rivelatori del falso. Non ha un codice leggibile in modo che vi si possano rilevare anomalie ma opera con equazioni complesse implementate in migliaia di strati di reti neurali.
Dunque, come per i precedenti sistemi informatici, l’operatività concreta dell’IA dipende dal livello di sicurezza del sistema. Ciò significa che non c’è un livello di sicurezza standard, sia perché hackeraggio e produzione di virus sono vulnerabilità interne alla macchina, sia perché gli attacchi sono più difficili da individuare. La verità riprodotta dissolve la differenza tra verità anagrafica, identità formale ed esperienza personale. L’identità rilevata dalla biometria produce il vero come risultato più accurato rispetto alla verità rilevata con «verifica umana». Si tratta di un vero esclusivo che dalle caratteristiche corporee determina un riconoscimento a prova di falsificazione, perché è un vero già prodotto come falso.
Il criterio di verità, che dall’omologia di parole e cose determinava la qualità dell’azione, l’evidenza e le manifestazioni di verità del potere, con la creazione di immagini digitali si risolve in una verifica dei fatti che non si distingue dalla falsa informazione (fake news).
Un’altra applicazione dell'IA operante da qualche tempo è la realtà estesa. La tecnologia di realtà estesa (XR) sviluppa tre modi di produzione e alterazione di spazi e ambienti. La realtà virtuale, la realtà aumentata e la realtà mista. La prima è attiva nelle esperienze immersive in ambienti virtuali interamente digitali. La realtà aumentata consiste nella sovrapposizione di oggetti 3D, testi e video agli spazi reali per fornire indicazioni su luoghi e percorsi. La realtà mista fonde in un ibrido mondo reale e mondi virtuali costruendo un ambiente complesso a partire dalla decomposizione e interpretazione degli spazi.
Ma il limite di tutte le forme di XR è di esaurire l’esperienza che viene aspirata nella sua riproduzione astratta. L’immersione in ambienti, spazi e tempi trasformati e simulati genera dipendenza dall’unico mondo reale riprodotto dalla realtà virtuale. Del doppio vincolo non ci si libera: virtuale e reale costringono nell’unica superfice di esistenza corpi e cose. L’ibrido non ne fa parte e ogni estraneità vive al di fuori della sfera inscalfibile costruita dal soggetto munito di protesi.
Uno degli sviluppi più imponenti dell’IA è l’informatica quantistica con cui si giunge al cuore dell’estensione dell’IA nei territori più pericolosi e che generano più profitti. Scrive Kai-Fu Lee che a differenza dei bit binari 0/1, che è il linguaggio dell’architettura di PC e smartphone, i bit quantistici sono elementi che consentono capacità di superelaborazione. I qubit che di solito sono particelle subatomiche come elettroni e fotoni seguono i principi della meccanica quantistica. Hanno proprietà di sovrapposizione, che è una specie di capacità in tre dimensioni di elaborare più esiti in contemporanea, e hanno capacità di intreccio, cioè di connessione tra loro anche a grandi distanze, per cui l’aggiunta di 1 qubit aumenta esponenzialmente il potere computazionale. Per raddoppiare un calcolo quantistico basta aggiungere un altro qubit. I computer quantistici sono però sensibili alle minime perturbazioni: vibrazioni, interferenze elettriche, cambi di temperatura e onde magnetiche possono far svanire la sovrapposizione. Per ridurre il rischio di decoerenza, cioè di perdita di capacità, i computer devono essere costruiti con superconduttori ed essere chiusi in camere a vuoto con frigoriferi di super-raffreddamento. Nel 1998 i computer quantistici erano 2, nel 2020, 65.
Nel 2019 Google ha dimostrato la supremazia quantistica. Un computer quantistico da 54 qubit ha risolto un problema «insolubile» in pochi minuti. Benché i costi, la capacità di costruzione e l’impiego di energia rendono ancora proibitiva l’impresa, le possibili applicazioni dell’informatica quantistica prospettano uno scenario che è già intimamente reale: armi autonome e guerre per i bitcoin.
Nel campo della medicina e della sanità, l’introduzione dell’IA mostra più che altrove l’ambivalenza insita nei dispositivi di gestione dei servizi sanitari, nel bio-lavoro, nella ricerca, produzione e commercio di protesi e cure. L’impiego dell’IA nella sanità genera preziosi dataset, digitalizza i registri dei pazienti, l’efficacia dei farmaci, gli strumenti medici, i dispositivi indossabili, i test clinici, la supervisione e l’efficacia delle cure, la diffusione delle malattie infettive e la fornitura di farmaci e vaccini. La personalizzazione dei trattamenti, i nuovi farmaci, il sequenziamento del DNA, la reazione digitale della polimerasi (dPCR), i nuovi marker cancerogeni e l’editing genetico (CRISPR) saranno implementati.
Ma il nuovo panorama della sanità e della ricerca medica prevede ingenti capitali. Uno studio del 2019 ha rilevato che nel 2025 il mercato della IA sanitaria crescerà del 41,7% arrivando nei soli Stati Uniti a 13 miliardi. Ciò significa che saranno le multinazionali del farmaco a organizzare, regolare e gestire sempre più nel mondo la sanità e la medicina in regime di mercato. Il fatto che le ragioni del profitto saranno relative all’aumento della longevità e che la commercializzazione da parte di big pharma scava un baratro tra chi può e chi non può curarsi, moltiplica i profitti dell’industria farmaceutica e rende inaccessibili i brevetti.
Jeremy Rifkin, economista e sociologo di successo, nel suo ultimo saggio, L’età della resilienza, indica nell’efficienza l’a-priori storico dell’attualità. Predire e padroneggiare l’avvenire con l’intento di controllare e influenzare gli eventi sui mercati. Consumare suolo e risorse. Deforestare per coltivare olio di palma e soia. Rinchiudere il bestiame in allevamenti intensivi. Usare semi ingegnerizzati, defolianti e antiparassitari per aumentare la produzione agricola ed estendere le monoculture. Fare pesca a strascico d’altro mare e mappare il fondale marino. Privatizzare l’acqua dolce, le strade, le ferrovie, la posta, i porti e gli aeroporti, la TV, le reti elettriche, le carceri, le scuole e le università. L’insieme delle azioni di governo della vita promosse in direzione dell’efficienza e vòlte al profitto costituiscono un’identità soggettiva quasi indistinguibile dal mondo sociale e dai mondi naturali. Questa indistinzione, socializzazione e naturalizzazione della vita è iniziata con la mappatura del genoma la cui storia è stata ricostruita da Rifkin in Il secolo biotech.
Il montaggio genico del CRISPR (Clustered Regularly Interspaced Short Palindromic Repeat) è il più versatile strumento di ingegneria genetica nella storia della biologia molecolare. Si tratta di un paio di forbici genetiche che tagliano il DNA nelle linee germinali di piante, animali e umani per eliminare i «tratti dannosi», cioè geni che potrebbero causare malattie croniche. Ma i benefici dell’editing genico sono pagati ad un prezzo oggi incalcolabile dal momento che ritagliare geni potrebbe avere effetti deleteri. Le forbici che tagliano simili tratti potrebbero aumentare la vulnerabilità, considerando che ciascuna specie si è evoluta e adattata nel corso dei millenni. I tratti recessivi continuano ad esistere nel genoma; eliminandoli, ovvero praticando la monocultura, non si sa a quale tipo di squilibri le specie viventi saranno esposte.
Nel 2018 lo scienziato He Jiankui ha annunciato la nascita di 2 gemelle con geni modificati. Il gene modificato in un certo numero di embrioni avrebbe conferito resistenza all’HIV. Tra il 2015 e il 2016 il CRISPR aveva prodotto un aumento di cinque volte dell’investimento delle multinazionali biotech.
D’altra parte il limite delle procedure di bioingegneria non è di natura etica e riguarda il senso dell’attività medica. La nota app di Open AI, Chat GPT, introdotta anche in psichiatria per implementare il famigerato Manuale delle Malattie Mentali (DSM) dell’American Psychiatric Association, non sostituisce il sapere medico ma la stessa condizione medica, cioè, dicono Benasayag e Pennisi in Chat GPT non pensa, corporeità, saperi, affetti, intuizioni e percezioni, a vantaggio di una semplice informazione sulla sofferenza.
La macchina riproduce il «campo biologico» come insieme di informazioni più che colonizzarlo. L’insieme di positività artificiali che genera – nuove cure, nuove metodiche, nuove procedure ingegnerizzate – sviluppa un campo di tensione in cui le facoltà dei viventi sono indici di ibridazione. Nella realtà non c’è scontro tra esseri umani e macchine ma conflitti sull’identità, sulla razza e sul genere in ragione delle possibilità di accesso a diagnosi e cure.
Le leggi di Asimov + Matrix in un film già visto
La guerra sanitaria mondiale già in atto nella pandemia di Covid 19 è una delle ragioni della prosecuzione delle guerre che già si combattono con sistemi d’arma semi-autonomi. Il drone israeliano Harpy, programmato per volare su «aree particolari», utilizza una testata altamente esplosiva. È un metodo chiamato «lancialo e dimentica». Slaughterbots è il progetto di un drone delle dimensioni di un uccello, si può assemblare facilmente al costo di 1000 dollari. Il drone cerca il bersaglio, lo trova e gli spara a bruciapelo una piccola quantità di dinamite nel cranio. Vola in autonomia ed è troppo piccolo per essere intercettato. Quando i prezzi dei componenti scenderanno i robot saranno in grado di costruirli. Non sol: formeranno sciami rendendo le missioni inarrestabili. Lo racconta Chen Qiufan nel suo primo romanzo Marea Tossica, ripubblicato di recente. Vedere per credere il terrificante video di 7 minuti del portale di Sci-Fi DUST .
Nel 2021 la National Security Commission on AI, guidata dall’ex di Google Eric Schmidt ha raccomandato gli Stati Uniti di rifiutare le richieste di messa al bando delle armi autonome. La guerra da remoto è in corso almeno dall’invasione dell’Iraq. L’ultima edizione è il genocidio a Gaza compiuto con il concorso del sistema «Lavender» che calcola il numero di vittime civili a seconda del valore del capo militare di Hamas da uccidere. «Lavender» è tarato sulle maggiori possibilità di uccidere in edifici e ove ci sono addensamenti umani.
Con le armi autonome la minaccia nucleare agita dalla deterrenza si sgancia dal vincolo della mutua distruzione, perché un primo attacco a sorpresa è difficilmente rintracciabile. La guerra Stranamore, che era il gioco degli scorsi anni Settanta, è diventata il grande gioco del diritto che ha creato questo scenario: le guerre saranno combattute soltanto con robot, oppure tra umani e robot, ma ai robot sarà permesso usare solo armi che disattivano i robot e sono innocue per gli umani.
Nel settore dell’istruzione l’IA è un mezzo di formazione di soggetti docili, che sgancia scuola e università dai sistemi pubblici in due modi: con l’introduzione di programmi di esercizi e schemi di lezioni (Chat GPT, Gemini) e con le app di insegnamento virtuale basate su autoapprendimento e autovalutazione.
L’IA applicata alla didattica, alla programmazione e all’organizzazione scolastica e accademica catturata nella logica dell’impresa e del profitto, si basa sulla riproduzione del linguaggio naturale, considerato come risorsa computazionale. Il maestro, l’insegnante, il professore, sono avatar creati dall’utente che gli fanno da mentore nella prospettiva di un ambiente tutto virtuale, come nel racconto di AI 2041, I passeri gemelli.
L’avatar «segue» lo studente, ne ottimizza facoltà e abilità, ma soprattutto ne individualizza il comportamento e costruisce l’identità soggettiva dell’utente con elementi e processi programmati e selezionati con i dati forniti dallo studente. Competizione, valutazione, merito, correzione di comportamenti anomali costituiscono il circuito di normalizzazione di bambini e bambine, ragazzi e ragazze preselezionati in base a test diagnostici che attestano deficit cognitivi e di socialità.
Nella sequenza storica dei dispositivi di disciplina, dalla caserma al carcere, alla scuola, alla fabbrica, è il soggetto del lavoro ad imporsi come subordinato e artefice della norma. Dal soggetto di conoscenza al soggetto di diritto, la parabola dell’homo oeconomicus è funzionale alla produzione di dispositivi sociali di controllo. Omnes et singulatim. Il governo del lavoro riproduce la norma soggettiva del governo della vita.
Agli inizi degli scorsi anni Ottanta, l’automazione delle tecnologie liberali di governo ha prodotto un individuo sociale che non risponde più alla norma disciplinare del lavoro. Il profilo dell’imprenditore di se stesso si sgancia dal regime della fabbrica e dal controllo diretto del lavoro. La società degli individui è la società degli investitori e dei portatori di interessi ed è la società del rischio.
Il capitale sociale assume la forma del capitale umano, dell’economia e della gestione di un capitale individuale che non è più subordinato al regime del lavoro ma a quello della produzione permanente di prestazioni, all’ottimizzazione delle facoltà e all’autovalutazione, mentre è esposto alla precarietà. Tecnologie digitali di controllo e tecnologie di sicurezza entrano nella produzione, regolazione e normalizzazione delle attività quotidiane in una giornata lavorativa di 24 ore.
É la realtà a disdire le retoriche di liberazione dai lavori usuranti con l’introduzione dell’IA: è più remunerativo sfruttare il lavoro che fare investimenti in robotica e conversione ecologica. Posti di lavoro già da tempo rimpiazzati da robot, bracciali digitali, software di controllo del tempo di lavoro e delle pause, reperibilità immediata, assenza di diritti e di garanzie, ricatti, minacce, confinamento e licenziamento via Whatsapp, sono i nuovi argomenti del governo del lavoro.
L’IA genera un nuovo sistema di caste con un’élite di superricchi, un sottoinsieme relativamente piccolo di lavoratori con mansioni di strategia e pianificazione e una massa enorme di creativi sottopagati e una popolazione mondiale impiegata in regime di schiavitù.
L’evoluzione dei mercati tecnologici ha alimentato una retorica che ha propagato il credo del continuo miglioramento della qualità della vita e dell’aumento della ricchezza per tutti, al punto che persino un vangelo della prosperità afferma oggi le virtù religiose del libero mercato, dello sfruttamento schiavistico, del razzismo e dello sviluppo ineguale di risorse a vantaggio dell’élite bianca statunitense.
Al contrario, l’economia digitale non crea abbondanza. Ogni bene e ogni tipo di consumo, pur sostenibile, è sottratto alla gratuità e la «rivoluzione» dell’IA instaura un regime di risorse sempre più scarse. Elon Musk e simili impiegano tutto il potere computazionale non per trasformare le povertà in abbondanza, ma per ridurre ogni giorno l’accesso pubblico a beni sempre meno disponibili.
Se anche dovesse scomparire la scarsità legata al denaro e alla ricchezza privata, e vendere, comprare e scambiare non fossero più attività necessarie, le tecnologie algoritmiche non farebbero scomparire l’economia che produrrebbe comunque scarsità anche in un ipotetico regime di abbondanza.
Le criptovalute, alternative realistiche alla scarsità, nate all'interno della finanza digitalizzata alla fine del primo decennio Duemila, sostengono il conflitto contro l’accumulazione speculativa della finanza tradizionale, ma sono anche una potente leva di valorizzazione in mercati collaterali che sono riserve permanenti di ricchezza. Il rapido sviluppo dei bitcoins ne è emblematico.
Nel 2009 Satoshi Nakamoto crea Bitcoin, la prima criptovaluta. Il suo creatore è già nella leggenda. Satoshi è svanito nel nulla e il suo tesoro di circa 1 milione di bitcoins è introvabile.
Le criptovalute sono monete digitali decentralizzate. Non sono emesse da banche centrali o da enti che possano controllarle. Tutti possono coniare moneta. Il processo di emissione si chiama mining. I minatori (miners) sono tutti coloro che offrono potenza computazionale con il proprio PC. I miners vengono retribuiti in bitcoins e l’operazione attesta la convalida delle transazioni e determina l’emissione. La tecnologia delle valute digitali è la blockchain, una rete di computer che redige un registro digitale delle transazioni condiviso tra i nodi della rete. La funzione della blockchain è di ordinare le informazioni. La distribuzione di bitcoins è regolata da questa rete pubblica. Dato l’elevato numero di nodi è quasi impossibile un malfunzionamento. Trattandosi di un database decentrato, la blockchain è sicura e «immutabile», nel senso che non può essere alterata perché qualsiasi modifica dovrebbe essere approvata da tutti i nodi della rete.
Ogni transazione è registrata in blocchi digitali in cui sono inserite le informazioni delle operazioni: data, orario, somme scambiate, indirizzi dei portafogli digitali. Fino al 2017 la grandezza dei blocchi era di 1MB. Con l’introduzione di Bitcoin Cash è stata incrementata a 8MB. Un sistema crittografico a chiave protegge la privacy. L’algoritmo Rsa utilizzato per i bitcoins, per le firme digitali e per le transazioni su internet, scrive Kai-Fu Lee, usa due chiavi, una pubblica e una privata. Ogni nodo ha una chiave privata che è una stringa alfanumerica e una chiave pubblica che conferma l’identità dell’autore delle operazioni. La transazione viene completata firmandola con la chiave privata. La trasformazione da privata a pubblica è molto semplice mentre il contrario è quasi impossibile.
Nel 2010 le transazioni sono passate ad un nuovo formato che nasconde l’indirizzo di chi opera. Quando si verifica un furto non c’è modo di denunciare perché gli autori non possono essere facilmente determinati, e comunque gli algoritmi resistenti ai PC quantistici sono molto costosi in termini computazionali.
I singoli portafogli digitali custodiscono gli assetts in due modi: cold e hot wallet. Il wallet freddo non è connesso a internet, mentre il caldo è custodito in rete su piattaforme software. A differenza della finanza tradizionale, il bitcoin va incontro ad halving, dimezzamento. Ogni 4 anni la remunerazione dei miners viene dimezzata; la valuta diminuisce sempre più di valore. Definito deflazionistico, il bitcoin, che è limitato a 21 milioni di monete, diviene una riserva di valore in regime di scarsità. Nel 2021 il suo valore totale superava i 1000 miliardi di dollari. Ma essendo molto volatile la finanza tradizionale ha ingaggiato una guerra speculativa contro bitcoin che nel corso degli anni secondo «Forbes» ha registrato numerosi ribassi superiori all’80% e al 99% con altre criptovalute. Sempre secondo «Forbes» a marzo 2024 bitcoin è stato scambiato sopra i 70.000 dollari.
Nicolò Cintoli e Valerio Diotallevi, giovani traders appassionati di informatica finanziaria, hanno pubblicato un interessante manuale, Crypto, in cui sono rubricate le prime 100 cryptocurrencies, divise per blocchi di interesse. Le più importanti, Bitcoin, Ethereum, Tether, Solana, Ripple, Avalanche, Shibaim, operano su blockchain altamente scalabili, cioè in grado di eseguire sempre più transazioni senza che la rete abbia cadute di performance.
Con l’ingresso dell’IA la capacità computazionale delle blockchain è aumentata e le molte criptovalute si sono specializzate estendendo le loro funzioni oltre a quella di essere mezzo di pagamento. Un aspetto interessante di molte valute digitali è la circolazione di Non-Fungible Token (NFT), cioè di asset digitali che rappresentano titoli di proprietà virtuale non scambiabili e relativi a beni unici irriproducibili: dipinti, spettacoli, romanzi, poesie, saggi filosofici, video, elaborazioni grafiche o inviti ad eventi, o l’acquisto di un personaggio su un videogioco. Il circuito, il cui controllo è nelle mani degli utenti, consente la scelta nell’utilizzo dei dati personali.
A differenza delle criptovalute, i token sono valute digitali che dispongono di una blockchain nativa e questo spiega perché ormai la moneta digitale è impiegata in progetti e collaborazioni di multinazionali e grandi network. Per esempio, Ripple, nata nel 2012, è un sistema di trasferimento di denaro in tempo reale che «gira» su RippleNet, una piattaforma tramite cui banche e istituzioni finanziarie utilizzano i servizi di trasferimento ad alta velocità sostenendo costi irrisori.
Avalanche, nata nel 2020, offre la possibilità di sviluppare smart contracts, cioè accordi digitali senza il bisogno di terzi, e reti personalizzate.
Crypto.com, uno degli exchange più famosi, oggetto di feroci attacchi speculativi, creato nel 2016 e sbarcato on line nel 2020, si vale di una collaborazione con VISA e ha creato carte di debito per pagamenti in criptovalute. Attiva nel settore NFT e nel calcio, sponsorizza il team NBA dei Lakers.
Una delle piattaforme multiuso più estese è Decentraland. È un vero universo digitale con una moneta, il Mana, e un metaverso, cioè una realtà virtuale che utilizza la blockchain di Ethereum che implementa aspetti economici e videoludici. Al suo interno si comprano e vendono terreni virtuali. Gli avatar con cui spostarsi sono NFT. Su Decentraland, scrivono Cintoli e Diotallevi, ogni giorno sono organizzati festival, concerti, sfilate.
Hedera Hashgraph è un registro pubblico distribuito per tenere traccia delle transazioni che non hanno più niente delle operazioni di compravendita ma sono pure comunicazioni. «Quando viene eseguita un’operazione su Hashgraph, il computer la impacchetta in un evento e la comunica ad altri due computer scelti random sulla rete». Questi ultimi comunicano la transazione a due altri, e così via. Hedera è l’azienda no-profit che supervisiona la piattaforma. Con Hashgraph collaborano Google, LG, IBM, Boeing. Swirld, l’azienda svizzera che ha creato una versione open source del sistema aveva per scopo di realizzare una rete nella quale si potessero far comunicare i propri PC per creare app e criptovaluta.
Uno dei più noti protocolli per lo scambio di file peer to peer è Bittorrent. Il progetto si è proposto per facilitare e velocizzare il download di file torrent che sono frammenti di dati che contengono informazioni per scaricare file di grandi dimensioni. Ideato nel 2001, viene acquisito nel 2018 dalla Tron Foundation.
Quant, Celo, Bat, Holochain, ecosistema open source su cui si possono progettare e realizzare software; Audius, piattaforma di streaming musicale in grado di premiare gli artisti sfruttati dai colossi dell’industria musicale; Decentralized Social, network che non tratta i dati personali che invece sono archiviati in storage decentralizzati senza fine di lucro: si tratta di progetti che si oppongono allo sfruttamento del lavoro vivo dei creatori di contenuti multimediali. I più seguiti possono lanciare una propria collezione di NFT la cui compravendita avviene con la moneta del social, DESO, sul profilo del creatore e creatrice.
Nel 2019 Bittorrent annuncia l’implementazione di un token crittografico standardizzato, TRC-10, per connettere il network alla blockchain. In questo modo «ha racimolato importanti capitali» e ha iniziato ad essere utilizzato come incentivo. Gli utenti che custodiscono e distribuiscono i file archiviati sui propri PC ricevono una ricompensa in token. Il network si sta espandendo nel live streaming con il sistema peer to peer per connettere i creatori di contenuti video al pubblico senza intermediari.
Protocollo di evasione
L’accesso all’IA, gestito e regolato dalle piattaforme in negoziazione permanente con gli stati, produce nuove facoltà di autocreazione e di trasformazione privata della forma di vita. Sottratta al grande controllo delle istituzioni, il cerchio della vita si rinchiude nell’uso perdendo la cura, nella lingua privata estratta dal linguaggio, nell’universalità astratta della connettività. La questione della privacy nasce da questo stato di cose.
Se ci si limita ad immaginare un presente post-fantascienza in cui regolamentazione dell’IA, protezione non istituzionale dei dati personali e archivi di big data presuppongano l’uso e la gestione non proprietaria, sarebbero un insieme di norme del tipo GDPR (General Data Protection Regulation) e l’esproprio dei clouds di dati dei colossi di Internet a riplasmare le reti e a conferire libero accesso ai contenuti.
Era questa la proposta generalista sventagliata qualche anno fa dai fautori dell’ «era dell’accesso» che avrebbe dovuto sostituire la proprietà con l’uso. Invece lo spionaggio informatico anglo-statunitense che ha scatenato la guerra commerciale mondiale, la securizzazione di internet per la guerra al terrorismo e le successive guerre informatiche permanenti, ingaggiate dagli stati contro le persone e contro la controinformazione, hanno messo fuori gioco qualsiasi possibilità d’uso del diritto che non tuteli in esclusiva le società quotate in borsa.
Il regolamento sull’IA approvato dall’Unione Europea lo scorso marzo si basa sul principio di precauzione e vede ambiti di applicazione regolamentati secondo crescente pericolosità di profilazione, manipolazione dei dati e induzione a compiere azioni che mettono a rischio l’autonomia individuale.
Ma queste norme non sono vincolanti, consentono la più ampia libertà di manovra da parte dei licenziatari e dei gestori di app e software (stati e imprese) e rendono molto difficile per le persone rivendicare eventuali induzioni a comportamenti non voluti.
Il diritto molto liberale a tutela della proprietà e della gestione delle reti, delle app e della ricerca corporate,
affonda nell’imposizione di un unico modello giuridico. Per questo il diritto attuale continua ad avere un profilo di semplice orientamento legale anche nel caso in cui sanziona le multinazionali che evadono il fisco o sono giudicate monopoliste.
Kai-Fu Lee: «Cosa ne pensate di una comune digitale del Ventunesimo secolo dove persone che condividono valori comuni sono disposte ad offrire i loro dati per aiutare tutti i membri della comune, sulla base di una mutua comprensione di come i dati saranno utilizzati e protetti?».
Ma l’alternativa giuridica a questo diritto del più forte che è arrivato a dominare lo spazio cosmico non è un altro diritto più giusto, più «umano», più al servizio delle persone.
Si tratterebbe invece di immaginare un’alternativa che non proviene e non produce diritto e che contrasta le leggi del profitto e della proprietà senza costituire forza di legge. Si tratterebbe di una revoca del diritto vigente, di una operazione locale e generale di esaurimento del diritto proprietario e di produzione di ambiti di condivisione. Si tratterebbe di un campo operativo di singolarità in cui accesso alle reti, con proprietà, gratuità e scambio siano garantite all’interno di spazi comuni. Questo non-diritto smonterebbe la Singolarità evocata da accelerazionisti e transumanisti, oscuro simbolo di dominio sui viventi in mutazione.
D’altra parte un non-diritto dovrebbe sottrarsi alla cattura e potrebbe esserlo con gli stessi mezzi dell’IA. Ma per far questo non c’è bisogno di macchine superintelligenti. Un non-diritto disposto al di là delle alternative tra produzione giuridica e diritto dei popoli potrebbe risarcire almeno in parte coloro che non hanno mai smesso di perdere?
Manuel Castells, sociologo dell’età dell’informazione, autore alla fine degli scorsi anni Novanta di un’ampia opera esplicativa della società dell’informazione, segnalava tra gli elementi di dissolvenza delle organizzazioni, delle istituzioni e delle espressioni culturali dominanti «l’opposizione bipolare tra la Rete e l’io». Invece, è sempre più l’«io nella rete» a combattere soggettività emergenti e ciò in ragione della reciproca appartenenza dell’identità, dell’intenzionalità e dell’azione all’universo della razionalità, del calcolo e della previsione.
L’universo dell’intelligenza o, meglio, l’insieme di possibilità di infiniti mondi in cui si gonfia una realtà chiusa, non è opera dell’algoritmo, ma degli effetti di sapere, della formazione individuale e delle soglie di esperienza perduta che il soggetto attraversa nella virtualizzazione quotidiana. Gli effetti della macchina intelligente non sono nella macchina e non appartengono all’algoritmo e alla logica del calcolo, ma sono effetti di sapere che inducono un’altra esperienza.
Questa esperienza senza corpo è indotta dal senso comune che il cervello pensa e il corpo non pensa, mentre sta accadendo che i corpi viventi di umani, animali, piante, rocce e le percezioni dello spazio, del tempo e della molteplicità si trasformano in aggregati misurabili. E si trasformano tramite procedure di inserzione di informazioni che generano percezioni, stati di salute e di malattia, sogni, desideri e l’insieme delle dipendenze psico-sensoriali a cui si è esposti.
In questa situazione non c’è presa totale sulle persone, ma cattura di stati di identità che si costruiscono con il tempo passato sulla rete anche quando si è disconnessi. Al fondo della libertà c’è la scelta, la ragione calcolante, la volontà, l’intenzionalità e l’azione, cioè tutte le pretese dell’occidente mondializzato, ed è in base a questo ethos che l’IA funziona.
L’avatar è la vera identità individuale, e l’avatar non è la figurina dell’anonimo che allude ad una preferenza, ad un profilo o ad un genere, ma è l’insieme aggregato di dati trasmessi dall’utente alla piattaforma per il suo riconoscimento. L’intelletto, nel suo senso dinamico, non c’entra con tutto questo.
D’altronde, corpi mutanti e corpi post-umani, come da anni dimostra Rosi Braidotti, non percepiscono e non conoscono la macchina algoritmica, che in sé non esiste, ma l’insieme disperso dei dispositivi di sapere-potere che accerchiano l’individuo che li accerchia. Un movimento sempre più intenso, l’ottimizzazione di facoltà, performances, gesti e azioni, il tempo trascorso nel cyberspazio, la volontà di controllo, alimentano l’auto-governo di sé e decretano un’identità costruita all’interno di parametri rigidi e procedure ripetitive. Il sistema algoritmico non produce normalizzazione; è l’insieme dei rapporti tra i viventi, gli ambienti e l’immagine di sé proiettata in dati e statistiche che genera la norma e il senso comune.
In un saggio del 2020, Identità Cibernetiche, Renato Curcio ha scritto che gli algoritmi «si propongono di stanare le manifestazioni identitarie con cui gli utenti scelgono di agire in rete momento per momento, connessione dopo connessione». Una volontà di sapere-potere, estesa ai corpi, alla terra, a Marte, allo spazio profondo, anima la macchina intelligente.
La felicità è tarata sull’autorealizzazione: un’elaborazione affettiva di passioni tristi espresse in pratiche autoerotiche che misura la differenza tra bisogni e desideri eudaimonistici, piacere e godimento. É la deflazione psichica, cioè lo stato permanente di depressione cognitiva che, come ha scritto Franco Berardi, è il clima emotivo del mondo attuale. E allora: «...Dovremo dimenticarci della facoltà cognitiva chiamata volontà. Dovremo affidarci alla sensibilità per poter entrare in relazione con l'universo indeterministico della proliferazione». Anche la felicità digitale va lottata. Ma questa lotta potrebbe essere accesa da una macchina rivoluzionaria intelligente al punto da prevenire le intenzioni nefaste dell’economia che uccide.
Bibliografia
Miguel Benasayag-Ariel Pennisi, Chat GPT non pensa (e il cervello neppure), Jaca Book, Santarcangelo di Romagna 2024.
Franco Bifo Berardi, L’accelerazionismo in questione dal punto di vista del corpo, in Gli algoritmi del capitale, Ombre Corte, Verona 2014.
Franco Bifo Berardi, Disertate, Timeo, Roma 2023.
Manuel Castells, La nascita della società in rete, Università Bocconi Editore, Milano (1996)-2002.
Niccolò Cintoli - Valerio Diotallevi, Crypto. Manuale introduttivo, Edizioni Efesto, Roma 2023.
Renato Curcio, Identità Cibernetiche. Dissociazione indotta, contesti obbliganti e comandi furtivi, Sensibili alle Foglie, Roma 2020
Derrick de Kerkove - Francesco Monico, L’algoritmo e la fine del pubblico. Eco-chamber, neo-totemismo ed etica della funzione, (download pdf), «che Fare», 29 giugno 2022.
DUST, «Slaughterbots» (Shi-Fi short film),
Carlo Formenti, Mercanti di futuro. Utopia e crisi della Net Economy, Einaudi, Torino 2002.
Kai-Fu Lee - Chen Qiufan, AI 2041. Scenari dal futuro dell'Intelligenza Artificiale, LUISS, Roma (2021)-2023.
Melanie Mitchell, L’intelligenza Artificiale. Una guida per esseri umani pensanti, Einaudi, Torino 2022
Chen Qiufan, Marea Tossica, Urania Mondadori, Milano (2013)-2023.
Jeremy Rifkin, L’età della resilienza. Ripensare l'esistenza su una terra che si rinaturalizza, Mondadori, Milano 2022.
Tiziana Terranova, Dopo Internet. Le reti digitali tra capitale e comune, Nero edizioni, Roma 2024.
Tiqqun, L'ipotesi cibernetica, (2001)-2012 a cura di Guido Battisti, Maldoror Press, disponibile qui.
Shoshana Zuboff, Il capitalismo della sorveglianza. il futuro dell'umanità nell'era dei nuovi poteri, LUISS, Roma (2019)-2023.
***
Paolo Vernaglione Berardi, insegnante, critico, ha lavorato come editor e come prof. invitato. È autore
di scritti e testi storico-filosofici tra cui Dopo l'umanesimo. Sfera pubblica e natura umana (2009); Filosofia del comune (2013); Michel Foucault. Genealogie del presente (2015); La natura umana come dispositivo (2018); Commenti alla filosofia (2021). Ha costituito con amici il laboratorio «archeologia filosofica» (2016-2023) e
con amici e amiche cura l’attuale collana editoriale «archeologia del presente», presso Efesto editore.
Comments