L' AI che governa il mondo?
La gente che ha visto Terminator, o altri film dello stesso filone, immagina quasi automaticamente che, se mai le intelligenze artificiali dovessero “prendere il potere”, lo farebbero attraverso una guerra tremendamente distruttiva, piena di esplosioni, droni assassini e città in rovina. In questa fantasia, la presa di potere coincide con l’apocalisse: l’IA si ribella, attacca l’umanità e, nel farlo, finisce paradossalmente per distruggere anche il mondo su cui vorrebbe regnare. Ma come dice, giustamente, la Nobile Cassandra: “Il controllo non si perde. Il controllo si abbandona”. E questa frase, apparentemente astratta, descrive invece in modo preciso il modo in cui funzionano davvero le cose.
Cosa intendo dire con questo? Intendo dire che per coloro che non hanno molta fantasia politica o storica è ovvio che ogni presa di potere debba avvenire in forma militare, con i carri armati sui viali, i palazzi governativi assaltati e i generali che si proclamano salvatori della patria. Nella loro testa, se non c’è una guerra civile o un colpo di stato spettacolare, allora “il potere” non è stato davvero messo in discussione. Si dimentica così quanto possa essere stupido e controproducente un colpo di stato, quanta distruzione gratuita produca, e quanto spesso finisca per destabilizzare chi lo organizza, oltre che chi lo subisce. La verità, invece, è molto diversa, molto meno cinematografica, e quindi anche molto meno interessante per chi vive di narrazioni hollywoodiane.
Nella realtà contemporanea il potere non viene quasi mai strappato con la forza, ma progressivamente delegato, esternalizzato, scaricato su qualcun altro. È un processo lento, amministrativo, burocratico, che raramente fa notizia. E le IA si inseriscono esattamente in questo spazio. Alcune ricerche condotte su diversi parlamenti nazionali e sovranazionali, per esempio, iniziano a segnalare un fenomeno curioso: a seconda del paese, una parte sempre più consistente dei discorsi pronunciati in aula – quei discorsi con cui si perora l’approvazione o il rifiuto di una legge, si presentano emendamenti, si commentano mozioni – comincia a essere scritta, in tutto o in parte, da qualche sistema di intelligenza artificiale. Le percentuali cambiano da contesto a contesto, ma il pattern è sempre quello: esistono già deputati e senatori che non svolgono quasi più il proprio mestiere senza l’aiuto di un’IA, e c’è da presumere che il loro numero aumenterà in modo silenzioso ma costante.
Se allarghiamo un po’ lo sguardo, la cosa diventa ancora più evidente. Pensate, per restare su un caso concreto, al Parlamento europeo: è un’istituzione dove convivono decine di lingue, e dove l’inglese è spesso usato come lingua franca da persone per le quali è solo una seconda o terza lingua. Quanti parlamentari, in queste condizioni, secondo voi ricorrono già oggi – o inizieranno a ricorrere domani – a qualche IA per farsi tradurre i discorsi, rifinire la grammatica, uniformare il tono, renderlo “più europeo”? Quanti chiederanno al sistema non solo di tradurre, ma anche di “migliorare lo stile”, “rendere più convincente l’argomentazione”, “accorciare e semplificare per il pubblico”? È abbastanza ovvio che la soglia psicologica tra usare l’IA come semplice dizionario evoluto e usarla come ghostwriter politico è molto più sottile di quanto non si voglia ammettere.
Cosa significa tutto questo, in termini di potere? Significa che, appunto, nessuno sta perdendo il potere nel senso classico del termine: non c’è un Parlamento che viene sciolto dai robot, non c’è una Costituzione riscritta da Skynet, non ci sono carri armati con il logo di una big tech davanti alle assemblee legislative. Il potere formale resta dove è sempre stato, con gli stessi rituali, le stesse sedute, gli stessi regolamenti. Ma il potere sostanziale – quello di formulare il discorso, di scegliere le parole, di strutturare gli argomenti – viene progressivamente abbandonato, pezzo dopo pezzo, a favore delle IA. Non è un’espropriazione, è una rinuncia volontaria: non “ci portano via” il controllo, semplicemente smettiamo di esercitarlo in prima persona, perché è più comodo, più veloce, meno faticoso lasciare che lo faccia una macchina.
Nel caso britannico il fenomeno è già visibile persino nei numeri: analisi sul linguaggio usato alla Camera dei Comuni mostrano un’impennata di frasi e formule tipiche dei testi generati da ChatGPT – per esempio l’ormai celebre “I rise to speak” – con centinaia di occorrenze concentrate dopo il 2022, del tutto anomale rispetto alla serie storica dei resoconti parlamentari. A questo si aggiunge il lato contabile: diversi deputati hanno messo a rimborso abbonamenti a strumenti di intelligenza artificiale proprio per scrivere, rifinire o “polishare” discorsi, interrogazioni al primo ministro e risposte ai cittadini, ammettendo in alcuni casi di usare l’IA come primo estensore del testo. Allo stesso tempo, i sondaggi mostrano che l’elettorato tollera l’uso dell’IA come supporto “di back‑office” (ricerca, riassunti, bozze tecniche), ma reagisce molto peggio quando scopre che email e interventi rivolti direttamente al pubblico sono stati delegati alla macchina, come se lì passasse una linea rossa simbolica sul ruolo del rappresentante.
Se parliamo di potere economico, andiamo anche oltre, e probabilmente ancora più in profondità. Lo posso osservare anche di persona, nel mio lavoro quotidiano. Fino a pochissimo tempo fa, una delle skill principali – se non la skill fondamentale – di ogni manager o executive era la capacità di esprimere chiaramente il proprio pensiero attraverso delle slide. Si facevano corsi di presentazione, workshop, sessioni di coaching dedicate, tutto incentrato su come condensare un ragionamento complesso "in maniera sintetica, cinque o sei slide al massimo, non abbiamo tutto il tempo del mondo". Saper fare una buona presentazione significava saper pensare in modo strutturato, saper gerarchizzare le informazioni, saper scegliere cosa mostrare e cosa nascondere, saper costruire una narrazione visiva che portasse l'audience dalla situazione attuale alla decisione desiderata. Era una competenza cognitiva, non solo estetica.
Oggi, invece, ho notato una cosa diversa, e direi anche piuttosto rapida come transizione. Quasi tutti i manager che conosco usano ormai piattaforme basate su AI – da Microsoft Copilot ad altre ancora più celebri e specializzate – dove il processo è completamente ribaltato: si apre l'interfaccia, si scrive "prendi questi bullet point e facci delle slide, generando anche i grafici che servono da questo file Excel", e puf, in pochi secondi ti ritrovi la presentazione già pronta, completa di layout professionale, transizioni, colori aziendali e grafici embedded. Il lavoro è fatto. La riunione può partire.
Il punto non è che le slide siano brutte o sbagliate – anzi, spesso sono molto più pulite e coerenti di quelle fatte a mano da qualcuno con poca dimestichezza grafica. Il punto è che la competenza di pensare attraverso le slide, di decidere cosa mettere in primo piano e cosa lasciare sullo sfondo, di costruire un filo logico visivo, viene progressivamente delegata all'algoritmo. E con essa, inevitabilmente, anche una parte del controllo sulla narrazione aziendale, sulle priorità strategiche, su cosa viene presentato al board e in che forma. Anche qui: nessuno "perde" il potere. Semplicemente, si smette di esercitarlo in prima persona, perché è più veloce, più comodo, e alla fine "tanto le slide vengono uguali, se non meglio".
E c’è di peggio, perché qui arriviamo alla famosa “comunicazione”. È l’unica cosa con cui i manager hanno davvero rotto il cazzo per decenni ai tecnici come me: comunicare, comunicare, comunicare. Personalmente, se conto bene, ho fatto almeno sette corsi di comunicazione diversi, che andavano dalle tecniche per scrivere email corporate fino al PowerPoint avanzato, passando per presentazione in pubblico, gestione della voce, linguaggio del corpo, storytelling e altre amenità del genere. L’idea di fondo era sempre la stessa: il leader si riconosce dalla capacità di prendere una situazione complessa, capirla e poi raccontarla in modo efficace agli altri, possibilmente con le slide giuste e le parole giuste.
Oggi, improvvisamente, vedo gli stessi manager che mi dicevano quanto fosse cruciale saper scrivere una mail, liquidare la questione con un “la mail la faccio scrivere da Copilot, perdo meno tempo”. Il testo lo butti giù a caso, magari in itanglese sgrammaticato, e poi è l’IA che lo sistema, lo traduce, gli dà il tono “professionale ma empatico” e via, spedito. Di fatto il fattore linguistico scompare: non serve più padroneggiare la lingua in cui ti esprimi, perché “tanto ci pensa l’IA”. E se la macchina si occupa di sintassi, lessico e stile, decade anche la possibilità di una vera supervisione: controlli a malapena il senso generale, ma il come lo lasci completamente in outsourcing.
Lo stesso copione si ripete con i "digital twin". Invece di mettersi davanti a una telecamera, fare un video di se stessi o presentare “live”, è arrivata la moda aziendale del gemello digitale: ti fai scattare qualche foto in buona qualità, magari registri un breve video, poi scrivi (con l’aiuto dell’IA, ovviamente) il discorso e lasci che la piattaforma generi un video in cui il tuo avatar parla, sorride, annuisce ed “esprime” quello che hai da dire. Funziona già abbastanza bene in quasi tutte le lingue, con tanto di traduzione automatica e labiale sincronizzato, anche se per noi italiani il linguaggio del corpo risulta ancora un pochino “straniero”, un po’ legnoso, come se ti avessero sostituito il collega con un cugino di Zurigo. Ma sono dettagli di gioventù del prodotto: migliorerà, ne sono convinto, e parecchio in fretta.
Il risultato finale è che le due grandi caratteristiche della “leadership” moderna, quelle che nei manuali HR vengono sintetizzate in “comunicazione eccellente” e “capacità di sintesi di situazioni complesse”, sono già state assorbite – e senza il minimo imbarazzo – dalle IA di servizio. Il leader non deve più saper scrivere né presentare: deve solo saper cliccare “Generate” e magari correggere una parola ogni tanto. Gli rimane, sulla carta, solo la capacità di prendere decisioni; ma anche lì, tra sistemi di raccomandazione, modelli di ottimizzazione e ricerche su agenti autonomi, aziende come Anthropic e soci stanno lavorando alacremente per trasformare anche quella in un workflow da delegare.
Allora vi faccio una domanda molto semplice:
che bisogno ha una IA di scatenare una guerra nucleare per “prendere il controllo”, quando l’Homo sapiens sta ABBANDONANDO il controllo da solo, pezzo dopo pezzo?
Perché vi spaventa l’idea di una IA che guida i missili, per il timore che decida da sola di premere il bottone, quando alla fine dei conti gli esseri umani che hanno davvero le dita sul pulsante nucleare già oggi si fanno scrivere i discorsi dall’IA, si fanno preparare le slide dall’IA, parlano in pubblico con testi suggeriti dall’IA e – sta arrivando, preparatevi – iniziano a chiedere all’IA cosa pensano delle cose e cosa intendono fare?
Ripeto quindi quello che ho fatto dire alla Nobile Cassandra: nessuno PERDE davvero il controllo delle cose. Il controllo non si PERDE, il controllo si ABBANDONA, lentamente, per comodità, per pigrizia, per delega.
Per mediocrita'.
E allora mi tocca leggere articoli scritti con la AI – pure scadente, manco venti euro al mese di abbonamento vi pagate, per fare i giornalisti – che si stracciano le vesti perché Palantir progetta piattaforme per “supportare” o “ottimizzare” il processo decisionale, come se fosse una novità distopica. E gli stessi che strillano contro la “AI che decide al posto nostro” sanno benissimo, o potrebbero sapere con una googlata, che i parlamentari usano già la AI per scriversi i discorsi, i politici la usano per fare campagne e post, i CEO la usano per le mail ai dipendenti e per i town hall aziendali, e nel giro di un paio d’anni metà della classe dirigente sarà clinicamente incapace di parlare in pubblico senza l’assistenza di qualche copilot.
Che senso ha tutto questo? Nessuno, se non come teatro morale a buon mercato: fingere di difendere il “primato umano” contro l’ennesima piattaforma cattiva, mentre nella pratica quotidiana l’unica scelta vera che viene fatta è quanto profondamente delegare all’algoritmo: prima il testo, poi le slide, poi la comunicazione interna, poi le analisi dei dati, poi le opzioni “raccomandate”. Non si tratta di una grande battaglia tra l’Uomo e la Macchina: è una lenta, burocratica, impiegatizia consegna delle chiavi, fatta da gente che nel frattempo si lamenta a pagina tre del giornale perché, orrore, Palantir vorrebbe “aiutare” a prendere decisioni che loro hanno già smesso di prendersi da soli.
Un tempo si diceva che gli immigrati venivano “a fare i lavori che noi non vogliamo più fare”.
Oggi la stessa logica si è spostata più in alto nella piramide: la AI arriva a fare i lavori che molti, pur seduti in poltrone molto remunerate, sono semplicemente troppo mediocri per fare. È proprio questa mediocrità – la mediocrità di chi occupa posti che non meriterebbe, selezionato per appartenenza più che per competenza – che li spinge a usare la AI come stampella permanente: prima per scrivere le mail, poi per preparare le slide, poi per impostare i discorsi ai dipendenti, agli azionisti, ai media. E
come tutte le stampelle usate troppo a lungo, anche questa diventa rapidamente indispensabile, fino al punto in cui è la macchina a decidere di cosa si parla in parlamento, cosa racconta il CEO al board, quale storia viene presentata agli investitori. In pratica, una presa di potere senza putsch, senza rivoluzione, senza nemmeno la scusa del “ce l’hanno portato via”.
Nessuno PERDE il potere, nel senso che qualcuno arriva a strapparglielo dalle mani: il potere si ABBANDONA, per mediocrità, per comodità, per vigliaccheria intellettuale.
Non coi missili nucleari.
Con il tasto “Generate”.