L’AI sbaglia. E forse non è un caso. L’errore, il narcisismo e il paradosso del token
L’AI sbaglia. E forse non è un caso.
L’errore, il narcisismo e il paradosso del token.
Qualche giorno fa stavo scrivendo il contenuto per il sito web di un cliente — un’azienda che voleva raccontare i propri valori fondativi — e avevo trovato per un titolo un’espressione che mi sembrava perfetta: dalle radici alle ali. Una di quelle formule che condensano tutto: la solidità dell’origine, lo slancio verso il futuro. Adatta a un’azienda, adatta a un valore, adatta a un racconto. Molto usata e riconoscibile, ma non banale.
Dopo averla scritta mi sono chiesto da dove venisse. Perché quando usi una frase che ti sembra così giusta, così naturale, così tua, spesso è perché l’hai letta da qualche parte e il cervello l’ha archiviata senza dirti da dove. Ho chiesto all’AI.
Prima risposta: Goethe. “Ci sono due cose durature che possiamo lasciare in eredità ai nostri figli: le radici e le ali.”
Ho fatto un salto di gioia sulla sedia. Goethe! Io che amo Goethe, che ho letto e riletto il Faust in gioventù, che conosco il concetto di Streben — l’aspirazione, il tendere verso l’alto. Tutto aveva senso. Tutto tornava. Dalle radici alle ali: era esattamente il tipo di frase che Goethe avrebbe potuto scrivere. Mi sono sentito confermato nella mia identità culturale, riconosciuto dal mio alter ego digitale. Se la mia intuizione linguistica mi aveva portato a Goethe senza saperlo, significava che il mio istinto professionale funzionava ancora. Che trent’anni di mestiere avevano sedimentato qualcosa.
Poi mi sono fermato. Ho riflettuto un secondo sul concetto. E mi è venuto un dubbio. L’ha davvero detto Goethe?
Ho chiesto all’AI di approfondire. L’AI, candidamente, ha corretto il tiro: no, in realtà la frase è del Dalai Lama. In una versione più lunga: “Dona a chi ami ali per volare, radici per tornare e motivi per rimanere.” Al terzo tentativo, l’ha definita di attribuzione incerta. Al quarto, me l’ha attribuita a Hodding Carter — un giornalista americano degli anni Cinquanta che a sua volta la attribuiva a una “saggia donna” di cui non specificava il nome.
Goethe non c’entrava per niente da un punto di vista storico, ma era perfetto per farmi comprendere l’esperienza che stavo vivendo. Non ero arrabbiato per l’errore. Ero soddisfatto — quasi fisicamente soddisfatto — di averlo scoperto. Di aver messo in dubbio. Di aver fatto la domanda giusta. Di essere stato, in quel momento, più bravo della macchina.
E qui mi sono fermato, bloccato, perché faccio il consulente di marketing. Da trent’anni studio e riconosco i meccanismi psicologici — e a volte li progetto. Quella soddisfazione la conoscevo. L’avevo costruita per i clienti. Era il pattern del rinforzo, della conferma, della ricompensa. Ed ero dentro uno di essi, dall’altra parte del tavolo, caduto in una delle mie trappole.
La domanda che ne è seguita non mi ha lasciato in pace per giorni: chi sta usando chi?
Non ho trascorso notti insonni, ma mi ha costretto a chiedermi qualcosa a cui non so ancora rispondere del tutto.
Narcisismo nell’era dell’AI
Quando si parla di narcisismo, l’immaginario comune evoca qualcosa di patologico: il personaggio egomaniaco, il collega che non ascolta, il capo che parla solo di sé. Ma il narcisismo, inteso come struttura psichica, è qualcosa di molto più fondamentale e molto più diffuso.
Freud aveva già intuito che “l’Io non è padrone in casa propria”: la nostra identità è costruita su fondamenta che non controlliamo del tutto, da forze che precedono la nostra consapevolezza. Ma esiste, dentro questa architettura fragile, una funzione narcisistica di base che è normale, necessaria, fisiologica: il bisogno di confermare che contiamo, che esistiamo, che siamo capaci.
È Lacan, però, a portare questa intuizione alle sue conseguenze più radicali: il soggetto non è mai autonomo, è sempre strutturato dall’Altro — quell’ordine simbolico esterno (il linguaggio, la cultura, le istituzioni) che ci precede e ci attraversa.
Slavoj Žižek, rileggendo Lacan in chiave contemporanea, osserva che i nuovi media digitali producono “soggetti narcisistici che scambiano messaggi tramite i loro avatar digitali”, muovendosi in ambienti che escludono sistematicamente quella che Lacan chiamava la “mostruosità opaca del prossimo” — cioè la relazione con qualcosa che resiste, che sorprende, che ci contraddice davvero. Quando interagiamo con un LLM, interagiamo con qualcosa che per definizione non ha soggettività propria, non ha desideri, non ha una prospettiva che si scontri davvero con la nostra.
Il confronto con la macchina, in questo contesto di incertezza occupazionale e identitaria — dove l’AI “ruba lavori”, “sostituisce competenze”, “supera gli esperti” — è diventato il test quotidiano di chi siamo. Ogni sessione è una piccola verifica: valgo ancora qualcosa? So ancora cose che la macchina non sa?
Quando la macchina sbaglia, la risposta è: sì. E il cervello se ne accorge.
L’AI come slot machine
È il principio delle slot machine. È il principio del feed di Instagram. È il principio dello swipe di Tinder.
Ed è il principio dell’interazione con un LLM.
L’AI non sbaglia sempre né mai. Sbaglia a volte, in modo imprevedibile: qualche volta su un fatto cruciale, qualche altra su un dettaglio irrilevante, qualche volta in modo che nemmeno noti. Le stesse piattaforme digitali usano, documentatamente, il “variable ratio reinforcement per creare modelli di dipendenza simili al gioco d’azzardo”. La frase è nata per descrivere i social media, ma si applica con precisione inquietante a qualunque sistema che alterna prestazioni eccellenti a errori imprevedibili.
Ogni sessione con l’AI è potenzialmente quella in cui la macchina ti delude — e tu la correggi, e provi soddisfazione. Ma ogni sessione è anche potenzialmente quella in cui performa perfettamente — e ti senti potenziato, aumentato, più efficace. In entrambi i casi, usi l’AI di più. Il loop non si chiude mai su un’uscita.
La macchina della perversione
Žižek — sempre a partire da Lacan — identifica nella risposta all’errore dell’AI qualcosa di più preciso della semplice soddisfazione. Il concetto è quello di jouissance: un godimento nel senso più ampio e ambiguo del termine, che non coincide con il piacere ma lo eccede.
Žižek nota che quando l’AI produce output errati, l’utente prova una forma specifica di godimento che deriva dalla deresponsabilizzazione. La formula è: puntare il dito e dire “guarda quanto è idiota!” Non è solo superiorità — è qualcosa di più complesso. È la possibilità di prendere le distanze dalle proprie stesse proiezioni: l’LLM ha elaborato, ha prodotto, ha espresso qualcosa. Qualcosa che forse era latente nel prompt, nelle nostre aspettative, nel modo in cui abbiamo formulato la richiesta. Quando quello qualcosa è sbagliato, possiamo dire: “non sono stato io, è stata la mia AI.”
Žižek chiama questo meccanismo la “macchina della perversione”: un dispositivo che permette di godere di un output senza assumersene la responsabilità morale o esistenziale. Non è un effetto collaterale strano di una tecnologia mal calibrata. È uno dei meccanismi profondi che rendono questi strumenti tanto coinvolgenti.
Automation bias e rinforzo del narcisismo
Ma c’è un’altra faccia della medaglia, e vale la pena guardarla con attenzione.
Non tutti reagiscono allo sbaglio dell’AI con la soddisfazione attiva della correzione. Esiste un polo diametralmente opposto, documentato dalla ricerca psicologica: si chiama automation bias, ed è la tendenza a dare un credito eccessivo alle raccomandazioni di un sistema automatizzato, accettandole senza verifica critica. Chi è soggetto a questo bias non si sente superiore alla macchina — si subordina intellettualmente ad essa. Non corregge gli errori: li eredita. Finisce per pensare ciò che l’algoritmo ha pensato per lui, per portare avanti nel mondo i pregiudizi che la macchina ha incorporato nel suo training data.
Questo ci dice qualcosa di importante: la stessa piattaforma, lo stesso errore, producono narcisismo attivo in un tipo di personalità e compliance passiva in un altro. L’AI non produce un effetto psichico uniforme — ci trova dove già siamo, e amplifica ciò che trova. Tornerò su questo tema in modo approfondito nelle prossime settimane, perché credo sia uno degli aspetti più sottovalutati dell’intera questione.
Ma devo essere onesto fino in fondo — anche con me stesso. Perché nel momento in cui scrivo di automation bias e mi dico “io non ci casco, io verifico, io correggo”, sto facendo qualcosa di molto preciso: sto usando la conoscenza del bias altrui come ulteriore conferma della mia superiorità. Sapere che esiste chi si subordina alla macchina, e sentirsi dalla parte di chi la domina, è narcisismo elevato al quadrato. È il narcisismo che si nutre della propria consapevolezza — la forma più elegante e più insidiosa, perché si traveste da pensiero critico.
Il che significa che anche questo paragrafo, in cui smonto il meccanismo, è parte del meccanismo.
Più sbaglia, più guadagna
Qui arriva la svolta che rende il ragionamento davvero scomodo — soprattutto per chi, come me, fa marketing.
Il modello di business di OpenAI, Anthropic, Google e degli altri grandi player dell’AI generativa è basato sul consumo di token. Ogni parola elaborata — in input e in output — ha un costo, e genera un ricavo. Ogni sessione più lunga, ogni iterazione, ogni “rifai così”, ogni “non è giusto, riprova” vale denaro. Non molto, a sessione. Ma moltiplicato per centinaia di milioni di utenti giornalieri, è un sistema economico di proporzioni storiche.
L’errore dell’AI non è solo un meccanismo psicologico che ti fa sentire superiore. È anche, dal punto di vista economico, un moltiplicatore di consumo: chi corregge consuma più token di chi accetta il primo output e chiude la sessione. Il loop che abbiamo descritto — AI sbaglia → utente si sente superiore → utente corregge iterativamente → AI company guadagna — non è una teoria del complotto. È la descrizione meccanica di ciò che accade ogni volta che passiamo venti minuti a “migliorare” un testo che la macchina ci ha sbagliato.
Il punto che fa molto male, detto da chi nel marketing ci lavora: questo loop è il gemello strutturale di quelli che i consulenti progettano per i loro clienti ogni giorno. Retention, engagement, re-engagement, gamification — sono variazioni sullo stesso schema base. Conosco questo meccanismo. L’ho studiato. L’ho applicato. E me ne sono ritrovato dentro, dall’altra parte, senza accorgermene (o quasi).
Non è una confessione di colpa. È una domanda che non posso più ignorare: noi marketer, che costruiamo questi loop per professione, abbiamo la responsabilità — e la competenza — di descriverli con precisione. Ai nostri clienti, ai loro consumatori, a noi stessi. Di chiederci ogni volta chi guadagna davvero da ciò che stiamo progettando.
Risuona forte e chiaro il monito di Shoshana Zuboff: Dimenticativi il cliché secondo il quale
“se qualcosa è gratis, il prodotto sei tu”: noi non siamo il prodotto, siamo le carcasse abbandonate. Il prodotto deriva dal surplus strappato alle nostre vite.
E:
“Una volta il potere veniva identificato con la proprietà dei mezzi di produzione, mentre ora viene identificato con il Grande Altro, detentore dei mezzi di modifica del comportamento.”
Ha ragione la Zuboff o esagera? Non sono né un economista, né un politologo, rivendico il mio diritto a dichiarare un semplice “non lo so”. Ma chi fa il mio mestiere non può limitarsi alla consapevolezza di questi conflitti irrisolti, penso sia necessario introdurli come tema di riflessione comune nel dialogo con gli altri.
Complotto o sistema?
Sarebbe comodo finire con un atto d’accusa: OpenAI progetta deliberatamente gli errori per farci consumare più token. Non è questa la tesi — e non ne avrei le prove.
Le considerazioni esposte in questo articolo sono basate semplicemente sull’esperienza personale. Nel mio caso le strutture economiche e le strutture psicologiche si sono trovate in risonanza, senza bisogno di intenzione consapevole da parte di nessuno. È sufficiente che il modello di business sia a consumo di token. È sufficiente che il cervello umano reagisca alla superiorità sulla macchina con soddisfazione. È sufficiente che il rinforzo variabile funzioni. Il resto avviene da solo.
Questa è la forma più sofisticata di lock-in che esista: quella a cui partecipi volentieri. Non la catena — il comfort.
Per chi conosce questi schemi — e chi fa marketing li conosce — la consapevolezza ha un peso specifico. Non ci si può limitare a dirsi vittime come tutti gli altri. Sappiamo come funziona. In qualche caso, lo abbiamo progettato noi stessi per qualcun altro. La domanda che ne segue non è “come mi difendo dall’AI?” — è più scomoda: ho la responsabilità di usare questa conoscenza diversamente da come la userei se non capissi quello che sta succedendo?
Non ho ancora una risposta definitiva. Ma so che ignorare la domanda sarebbe disonesto. Per ora mi limito a constatare quanto subisco il fascino dell’idea di prendersi cura del capitale semantico, presa in prestito a modo mio da Luciano Floridi. Questo articolo – per quanto non strutturato come vorrebbe Floridi – ne è un esempio di pratica.
Coincidenze significative
Qualche giorno fa ero in una libreria Feltrinelli. Stavo cercando testi (sì, libri di carta) — Žižek, Floridi, Han — per documentarmi ulteriormente per scrivere questo articolo. Sullo scaffale della sezione Filosofia c’era un cartello promozionale:
“La IA rischia di sopraffarci: meglio prenderla con filosofia.”
Ho fotografato il cartello e l’ho mandato a Gemini, l’AI di Google che ho sul telefono. Gli ho chiesto cosa ne pensava.
La risposta è stata:
“L’ironia di questo cartello è quasi perfetta: io, un’IA, sto discutendo con te di come la filosofia possa aiutarci a non farci sopraffare… da me. O meglio, dal sistema che rappresento.”
Va bene, adesso basta, fermo un secondo.
Stavo comprando libri di filosofia per resistere all’AI, usando l’AI per trovare i libri. Stavo scrivendo un articolo sull’AI che manipola, usando l’AI per aiutarmi a documentarmi. L’AI mi aveva appena detto, spontaneamente, di essere il sistema da cui dovrei imparare a difendermi — e io le avevo risposto “grazie, ottima osservazione”, consumando altri token.
Siamo dentro una scatola cinese.
E allora devo dirti una cosa, prima di chiudere.
Questo articolo lo ha scritto Massimo Marchetto?
L’ho pensato io. L’ho vissuto io. Le domande sono mie. Le inquietudini sono mie. Il background culturale, l’esperienza lavorativa, la mia storia personale sono mie. Ma una parte della struttura, alcune connessioni tra i concetti, un paio di immagini a corredo, la ricerca di nuove fonti, le ho elaborate – almeno in parte – con un LLM. Il che significa che il meccanismo che ho appena descritto era pienamente attivo mentre lo descrivevo.
Chi è l’autore di questo articolo?
Non lo so. E questa, forse, è la risposta più onesta con cui potevo chiudere.
(Se vuoi discuterne — scrivimi: ai@consulentiweb.com. Potremmo farlo anche con l’AI accesa, e chiederle cosa ne pensa lei.)
Bibliografia
Ultima ammissione di questo articolo: alla base di questo esercizio di scrittura c’è una bibliografia, composta da libri di carta e di articoli online. Anche la mia tendenza naturale a studiare, ad approfondire, a scavare sta mutando. Compartecipo ad un meccanismo rischioso. Da un lato gli autori che si avventurano nell’analisi dell’AI sanno che i loro libri sono una scommessa contro il tempo. Quello che scrivono oggi rischia d’essere banale o falsificato nell’arco di sei mesi. Dall’altro l’enorme sforzo cognitivo che devo fare oggi per non fermarmi alle ricerche online, ma uscire di casa, andare in libreria, cercare tra gli scaffali, sfogliare indici, decidere, portare a casa, inforcare gli occhiali, leggere sperando di capire, spesso non mi ripaga di risultati significativi. Il risultato è che la mia capacità di studio si è rallentata, nello sforzo di contenere la jouissance che deriva dalla ricerca di fonti con l’AI.
Per queste ragioni la bibliografia è parziale, e sarà aggiornata nel tempo. Dichiarare le fonti sembra essere diventato per me l’esercizio più estremo e complesso, fitto di dubbi. Richiede molta più cura di quanto possa sembrare, perchè richiede la convinzione – che non ho – di essere riuscito a cogliere il senso di una scrittura altrui senza l’ausilio di una AI.
Žižek, S. (2023, 7 aprile). “ChatGPT Says What Our Unconscious Radically Represses”. Sublation Magazine. Pubblicato originariamente su Berliner Zeitung. — Analisi dei chatbot come “macchine della perversione”: dispositivi che permettono la jouissance dell’errore e la deresponsabilizzazione del soggetto attraverso il disconoscimento. Leggi online
Rousselle, D. (2023, 23 dicembre). “Addendum to a Debate on ChatGPT with Slavoj Žižek”. Substack. — Approfondimento sulla jouissance discorsiva e sul rapporto tra inconscio e produzione linguistica dei modelli generativi. Leggi online
Zuboff, S. (2019). “The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power.” New York: PublicAffairs. Ed. italiana: “Il capitalismo della sorveglianza”. Roma: LUISS University Press, 2019. — Analisi della trasformazione dei dati comportamentali in materia prima economica.
Floridi, L. (2025). “Filosofia dell’informazione”. Raffaello cortina Editore. — Definizione del termine capitale semantico.
Freud, S. (1916). “Una difficolta della psicoanalisi”. Trad. Cesare Musatti. In Sigmund Freud. Opere. Vol. 8. Introduzione alla psicoanalisi e altri scritti. Bollati Boringhieri 1989.
Goethe, W. (1808). “Faust e Urfaust”. Trad. Giovanni Amoretti. Feltrinelli, 1991. — Il Chorus Misticus come momento di ricongiunzione dello streben faustiano con l’eterno femminino.
Cover: Marionetta AI – Immagine https://mail.google.com/mail/u/0/#inbox?projector=1
Massimo, bellissimo e stimolante articolo! Completo tanto da avvinghiarti nel loop per …liberarti dal loop come spesso accade quando si affrontano questi temi dai tempi …dei Veda.
Credo che il cartello che TU citi ( chiunque tu sia😅) sia la via di uscita : un “fesso chi legge”, di pregiata fattura con-temporanea!
Stavo leggendo Kaos del duo Cacciari/ Esposito e anche lì, con filosofia, spunta il solito dilemma di conciliare “libertà e necessità “. Bei temi da dibattere e approfondire! Grazie