AI: la fine del lavoro o la fine del mondo?
AI: la fine del lavoro o la fine del mondo?
Jack Dorsey è l’informatico che ha fondato Twitter (ora X) ed è il CEO di Block, leader nei sistemi POS negli Stati Uniti. Ha annunciato il licenziamento del 40% del personale di Block, e non ha motivato la decisione con una crisi aziendale, ma con il fatto che gestire l’azienda con l’intelligenza artificiale anziché con gli esseri umani è molto più conveniente. La reazione della Borsa è stata entusiasta: le azioni della società sono cresciute del 24%. Pensa che Dorsey è considerato un filantropo, per le numerose iniziative sociali finanziate in passato: in questi tempi oscuri evidentemente la patente di filantropia scaturisce dal saldo algebrico tra benefatture e nefandezze.
Questo è solo l’esempio più eclatante e attuale di quanto sta accadendo e accadrà in molte aziende, non solo di software. La logica è elementare nella sua brutalità: la tecnologia AI progredisce molto velocemente, e rende antieconomici oppure obsoleti una quantità di lavori che fino a ieri erano svolti da umani. Antieconomici, nel caso in cui l’AI consenta di fare le stesse cose che fanno gli umani a costi molto inferiori; obsoleti, nel caso in cui l’AI consenta una gestione aziendale più rapida ed efficiente di quella fino ad oggi amministrata con collaboratori appartenenti alla specie umana. In realtà, questi due aspetti vanno rapidamente a coincidere: AI è meno costosa e contemporaneamente più efficiente.
Catastrofista? Me lo auguro di cuore, ma questa cosa non la dico io. La dicono i padri dell’intelligenza artificiale, coloro che ne hanno sviluppato e monitorato le potenzialità e i progressi, fino a rendersi conto e dichiarare che loro stessi non sono in grado di garantire né quale sarà l’evoluzione dei sistemi che vanno sotto il nome generico di AI generativa, né se riusciranno a controllarne l’utilizzo. Il primo è stato Geoffrey Hinton, ormai più di due anni fa. Hinton è un informatico che ha iniziato ad allenare le reti neurali artificiali già 50 anni fa. Nel 2023 si è dimesso da Google per poter lanciare liberamente il seguente appello pubblico: “Mitigare il rischio di estinzione (del genere umano) a causa dell’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“. Chiaro, semplice, comprensibile, drammatico. E’ come se Hinton avesse detto: il sistema che ho contribuito a creare non lo controllo più, è lui che può controllare me. E’ un upgrade dell’allarme che Szilard ed Einstein diffusero nel 1939 sul programma atomico della Germania nazista: in quella circostanza, i due fisici suggerirono al presidente USA Roosevelt di intensificare le ricerche dei “buoni” per contrastare e anticipare il progetto militare dei cattivi. Da lì nacque il progetto Manhattan di Oppenheimer. A posteriori, sappiamo chi furono gli unici – fino ad oggi – a utilizzare la bomba atomica contro esseri umani innocenti: furono i “buoni”, sulla popolazione di Hiroshima e Nagasaki (Einstein ammise che quell’appello fu il più grande errore della sua vita, e divenne in seguito un grande sostenitore del disarmo nucleare). La differenza è che Hinton non lancia l’allarme contro un nemico esterno: dichiara che la sua creatura può diventare il suo nemico, e il nemico dell’umanità. Un nuovo mostro di Frankenstein, con la differenza che la creatura mostruosa era frutto dell’ immaginazione della scrittrice Mary Shelley, mentre l’intelligenza artificiale generativa è reale.
Poi ci ha messo il carico Matt Shumer, giovane imprenditore di un’azienda che sviluppa un software di assistenza alla scrittura basato sulla AI. Dopo aver provato le ultime versioni di Claude, l’AI di Anthropic, e GPT di OpenAI, Shumer ha scritto un post intitolato Something Big is happening (qui il testo integrale) divenuto ipervirale, recante tra le altre la seguente affermazione: «dico all’AI cosa voglio, mi allontano dal computer per quattro ore e, al mio ritorno, trovo il lavoro completato. Fatto bene, fatto meglio di come l’avrei fatto io, senza bisogno di correzioni». Questa in effetti non sembra la rappresentazione di un assistente: questa è la descrizione di un professionista autonomo (dagli umani). Altra affermazione di Shumer è che alla domanda su quale tipo di lavoro intellettuale umano verrà messo in pericolo, la risposta è tutti. Nel medio termine, niente di ciò che si può fare con un computer non potrà farlo l’AI. «L’AI non sta sostituendo una competenza specifica. È un sostituto generale del lavoro cognitivo. Migliora in tutto simultaneamente». Secondo Shumer, le successive versioni delle AI sono ab origine concepite in modo di automigliorarsi da sole, senza bisogno dell’intervento umano. Come si usava dire di un animale particolarmente intelligente, “gli manca la parola”: ben presto, alla AI, secondo l’apocalittico post di Shumer, non mancheranno nemmeno empatia e capacità di provare emozioni – si tratta di vedere quali. Lo scarto, rispetto alle precedenti evoluzioni della tecnologia, sembra essere: in passato l’umano doveva almeno apprendere le tecniche di utilizzo di un software (o di un hardware contenente un software) per averne un beneficio. Da ora in avanti, non ci sarà bisogno di imparare a usare l’IA: basta darle un compito e fa tutto da sola, più rapidamente e meglio di un essere umano.
Se tutto questo non fosse già abbastanza inquietante, ci pensa il Pentagono del deficiente Hegseth a gelarci il sangue. La storia in breve è questa: il biofisico Dario Amodei se ne va da OpenAI perché l’azienda non accetta di inserire limiti etici in materia di utilizzo dell’AI in materia militare e di sicurezza. Fonda una nuova azienda, Anthropic, dandole la veste giuridica di Public Benefit Corporation, cioè un’ impresa certamente a scopo di lucro, ma che combina il profitto con uno specifico beneficio pubblico definito legalmente, come la sostenibilità ambientale, l’istruzione o il bene sociale, e con dei precisi limiti etici. Il suo braccio destro umanistico è Amanda Askell, la filosofa che ha scritto l'”anima” di Claude.
Claude è l’AI di Anthropic. Il lavoro di Askell, come ha scritto il Wall Street Journal, è “insegnare a Claude come essere buono”. Il 27 febbraio 2026 Amodei rifiuta l’ultimatum del Pentagono che chiedeva di rimuovere i limiti di Claude sull’ utilizzo di armi autonome (tipo i droni) e sulla sorveglianza di massa (tipo quella che Palantir esercita sui cittadini americani al servizio delle nefandezze di ICE, o per tracciare i movimenti dei palestinesi e ammazzarli mentre rientrano nelle loro case). Per tutta risposta, Trump ha ordinato di bannare Anthropic da tutte le agenzie del governo federale che lo usano. Amodei ha risposto: “Nessuna intimidazione cambierà la nostra posizione.” Intanto migliaia di consumatori stanno migrando da OpenAI a Claude (che fino a ieri non funzionava: misteri del web o ritorsioni immediate?)
Claude è oggi un asset strategico: sembra infatti l’unico modello di AI disponibile nei sistemi più riservati dell’esercito statunitense ed è considerato quello con le migliori performance nelle attività di intelligence. Il Pentagono ha un contratto da 200 milioni di dollari con Anthropic. Ma essere geniali e possedere una morale è un problema. Se sei un genio e crei qualcosa di geniale, devi permettere al potere che ti paga profumatamente di utilizzare questa creazione senza alcun limite etico. Altrimenti sei fuori, come in The Apprentice. In questo agghiacciante, brutale scenario deumanizzato, sapere che la differenza tra una AI cattiva e una buona dipende da una filosofa e non da un ingegnere costituisce una paradossale, grottesca speranza per una specie, quella umana, che ha smarrito il senso di sè.
Quello che l’avvento dei sistemi di AI prefigura, richiama l’immagine di qualcuno che sta segando il ramo dell’albero sul quale è seduto. Questo qualcuno potrebbe essere il sistema del capitale consumista. Se tu non utilizzi più il lavoro delle persone che, in misura maggiore o minore, acquistano e consumano le cose che produci, i casi sono due: o continui a pagarle anche se non utilizzi più la loro capacità di lavoro, oppure lo Stato deve pagarle al posto tuo. Nel primo caso devi rinunciare a una parte consistente dei tuoi utili (ma allora a che scopo sostituire gente quando devi continuare a pagarla?); nel secondo caso, lo Stato deve tassare molto maggiormente di adesso i tuoi profitti, per finanziare la sussistenza dei consumatori che restano senza impiego – e la sussistenza consumistica non è paragonabile a quella del post dopoguerra.
Sembrerebbe la miccia ideale per innescare una metamorfosi radicale del capitalismo consumistico. Non certo una sua estinzione: tutte le volte, nella storia moderna, in cui eventi eccezionali hanno fatto pensare alla caduta del sistema, il sistema ha trovato il modo di autorigenerarsi. Certo, negli ultimi trent’anni il sistema si è rigenerato ampliando il crepaccio tra i pochi ricchissimi e i tantissimi sopravviventi, ma comunque ha consentito al grosso della popolazione del cosiddetto occidente avanzato, e anche ai popoli dei paesi BRICS, di avere i mezzi economici, procurandoseli spesso a debito, per consumare i beni e i servizi prodotti. Il raggelante e suggestivo interrogativo che l’avveramento delle previsioni apocalittiche sull’AI pone, è proprio questo: come il sistema provvederà a finanziare i consumatori (cioè tutti noi) che rimarranno progressivamente privi di denaro, classicamente inteso come lo scambio tra la prestazione di manodopera e il salario (poco o tanto che sia). A meno che, naturalmente, tutto questo gigantesco problema non venga derubricato dal subentrare di un’emergenza peggiore in quanto esistenziale, quale la deflagrazione su scala globale della terza guerra mondiale: la prima con un pianeta Terra foderato di armi atomiche.
Cover image Zol Tan from Pixabay

Lascia un commento