botnet · chatbot · politica

Bot e governi.

Si fa un gran parlare di bot , chatbot e di come i russi sarebbero presenti in massicce campagne di disinformazione sui social. E si fa un gran parlare di come queste operazioni avrebbero influenzato la politica e le elezioni. Siccome i chatbot sono ormai una realta’ da anni, vorrei un attimo fare il punto, se non altro per mostrare quanto sia impossibile uscire da questo problema.

Questa non sara’ una trattazione tecnica, cioe’ non staro’ a parlare di roba tipo “intent”, “context”, “sentiment”, “confidence” ed altre amenita’. Intendo parlare dell’uso che se ne fa.

Immaginate di essere la Polizia nell’era dei social. E immaginate di saper funzionare perche’ in ogni paese di provincia o quasi ,ci sono caserme con i vostri uomini, che raccolgono indiscrezioni, voci, eccetera. Ed immaginate di pensare che tutto sommato molti dei “piccoli facinorosi” siano chiusi dentro la loro bolla di provincia, quindi essenzialmente incapaci di far qualcosa di veramente destabilizzante.

Poi improvvisamente arrivano i social. E tutti sono li’, potenzialmente in grado di venire a contatto tra loro, di coalizzarsi, e di venire a contatto con organizzazioni, gruppi, enti di ogni genere. La domanda e’: come li controllate tutti? Certo, il trucco di aprire un gruppo ad hoc e vede chi ci si iscrive va sempre bene. E’ come aprire un Centro Sociale Occupato e vedere chi viene ad occupare. Questa e’ roba vecchia.

Ma adesso non abbiamo piu’ un “sottobosco” da controllare. Abbiamo milioni e milioni di singoli individui da controllare.Allora cosa fate?

Create una botnet.

Ognuno di questi chatbot non fara’ altro che chiedere l’ amicizia a voi, e se la rifiutate chiederanno l’amicizia ai vostri amici, in modo da conquistarsi la fiducia, per poi arrivare a voi. Posso dire con una certa tranquillita’ che tutti voi avete, sui social, almeno un amico bot che riporta alle forze dell’ordine.

Ci sono poi modi indiretti di fare le cose. Il vanity like, per esempio. Significa che un bot diventa vostro amico e comincia a fare “like” dei vostri post, cosa che in fondo vi piace. Poi un altro bot raccoglie tutto quello che questi bot hanno “marcato”.

Un bot lavora in due stati: autonomo oppure sotto supervisione. Significa che sino a quando il livello di “confidence” di aver capito il contesto e l’intento sono alti, il chatbot lavora in autonomia. Solo quando vede qualcosa di sospetto ma non sa decidere, allora chiama un operatore umano. Siccome questo succede di rado, un operatore umano puo’ badare ad una botnet di qualche migliaio di questi robot, senza alcun problema. Quando vedere un account che segue MIGLIAIA di altri account, questo e’ il caso: avete idea del traffico sulla loro homepage, seguendo i post di MIGLIAIA di altri account? Stiamo parlando di account che sono inutilizzabili , perche’ il traffico, lo stream , e’ troppo veloce.

Ma la cosa importante da sapere e’ che questi chatbot sono capaci di sostenere apparenti conversazioni. Significa che possono riconoscere le parole che state usando, risalire al contesto, scegliere in questo modo una risposta che sembra adeguata, o al massimo leggermente off topic, diciamo una quantita’ tollerabile di off-topic.

Andiamo agli attori che hanno queste botnet.

Forze dell'ordine e agenzie governative

Questi bot hanno il compito di fare text mining

Il text mining e’ un processo di machine learning nel quale si esamina quanto scritto da migliaia di persone, allo scopo di verificare se esistano dei trend emergenti, e si usano delle librerie di termini per verificare la comparsa di termini “allarmanti”. Quando un account comincia ad usare termini “allarmanti” , allora il bot chiama un operatore.

Un altro compito e’ di verificare che la persona sia in contatto con persone a loro volta “allarmate”. Se io sono sotto l’attenzione degli amici sbirri e ad un certo punto entro in contatto con altre 30 persone che sono sotto la medesima attenzione, allora il mio livello di “allarme” cresce. Sino a quando, ovviamente, non si accende una lucina e l’operatore umano viene chiamato.

Agenzie patagovernative.

Si tratta di enti che vivono in una condizione di “permeabilita’ ” rispetto allo stato. In Italia potrei nominare per esempio questi:

https://www.granloggiaditalia.eu

https://www.grandeoriente.it

https://it.clonline.org

https://www.orderofmalta.int

ed altri.

Si tratta di enti che hanno agio nell’avere degli agenti tra i propri ranghi, quando non addirittura degli ufficiali e dei funzionari di alto rango. Questi enti non hanno diretto accesso alle infrastrutture, ma possono chiedere “favori” a quegli ufficiali che sono membri dell’associazione stessa.

Lo scopo di queste attenzioni e’ di fare dossieraggio su coloro che in qualche modo vengono visti come “avversari”, ma anche di controllare la fedelta’ delle persone nei propri ranghi, spiando i loro account online.

In casi estremi, la cui frequenza sta crescendo , questi enti si dedicano alla “character assassination” di un individuo. Per fare un esempio, nel 2017 Rosy Bindi ha ordinato alla GdF di raccogliere circa 35.000 nomi dei massoni di tutto il paese. Questo ha causato un vero e proprio terremoto tra le file dei massoni, che hanno deciso di annientare il PD. Ovviamente parte della strategia si svolge offline, ma una buona parte e’ online: l’ostinata character assassination di Matteo Renzi ha tratto beneficio di infrastrutture informatiche di questo genere.

Enti non governativi.

Immaginate di essere un piccolo partito politico che cerca di rappresentare se’ stesso come dominante, in modo da ottenere il seguito di coloro che per stile di vita passano sempre dalla parte del vincitore.

Per fare questo vi serve una rete di bot che simulino una gigatesca “claque”. Potete avere diversi bot.

Alcuni sono, per l’appunto, character killers. Significa che li regolate per monitorare un account pubblico, cioe’ un vostro avversario politico, e appena parla gli riempite la homepage di commenti pieni di insulti e accuse infamanti.

Ovviamente ci sono anche i bot “amici” che vi fanno la claque, cioe’ quelli che vengono sul vostro account a gridare “bravo! hai detto bene! biiiisss!”. Sono semplicemente l’altro ramo della medaglia.

Ci sono infine gli shitposters, cioe’ quei bot che vengono non tanto ad attaccare un politico, ma i suoi sostenitori. Significa che seguono il bersaglio, individuano le risposte “a favore” , e individuano gli argomenti che hanno bisogno di approfondimento, e sommergono di merda i vostri sostenitori. Ma lo scopo principale non e’ questo: e’ quello di devastare il dibattito in modo da “vanificare” gli sforzi dei vostri sostenitori di riportare le persone alla ragione, o di argomentare.

Questo tipo di operazione e’ tipica dei partiti che non hanno molti argomenti , e quindi devono impedire a chi ha argomenti migliori di fare dibattito. Un dibattito che ovviamente perderebbero.

Ma andiamo al fulcro del problema: le psyops.

Le psyops sono quelle operazioni condotte sui social network che sono fatte per ottenere effetti sulla mente delle vittime.

Un tipico esempio di psyops e’ l’esaurimento, o network burnout. Significa che se voi siete attivisti di un dato partito e non sapete “dosare” la vostra presenza online, verrete “provocati” con determinate parole , in modo da portarvi alla spossatezza. Non bisogna sottovalutare queste operazioni, perche’ portano le persone a stare collegate anche la notte, cioe’ a perdere il sonno, e la quantita’ di energia che queste persone spendono viene sottratta al computo globale, cosa che in casi estremi puo’ causare depressione, paranoia, crisi di panico.

In questa categoria di sono due operazioni di rilievo. La prima e’ la “psyop” di isolamento. Consiste nel far concentrare la persona sui social network, nell’aumentare il suo investimento di tempo ed energia sino al punto in cui non ne resta per le attivita’ offline. In questo modo e’ possibile fare in modo che un individuo molto influente sui social network diventi praticamente un asociale fuori.

Questa cosa ovviamente si sposa bene con la prima perche’ se un individuo e’ gia’ di per se’ portato ad investire tantissimo tempo fuori dalla realta’, sino al burnout, aggiungere la perdita di contatto con le persone reali produce un alienato che, dal punto di vista dell’attaccante, e’ davvero innocuo. Oh, certo, sui social sara’ anche un dio e potra’ scrivere questo e quello, ma non ha amici reali e quindi piu’ che “un pericoloso post su Facebook” non potra’ fare.

Se poi a questo si aggiunge la depressione e un pochino di paranoia (la sensazione di essere osservati si raggiunge attraverso il doxing, cioe’ la pubblicazione di dettagli sulla vita della persona, a dire “sappiamo chi sei e dove vivi”) , la persona diviene innocua perche’ incapace di socializzare con profitto.

Tra questi enti non governativi ci sono associazioni criminali, partiti politici, servizi stranieri, gruppi eversivi, sette religiose , e quan’t altro. Il costo di una botnet infatti e’ abbastanza vantaggioso:

siamo nell’ordine di 0.0025 $ per ogni messaggio. Un quarto di centesimo di dollaro,. e vi danno sino a 1000 istanze, che potete collegare ciascuna a molti account su qualsiasi social.

Ed ecco per quale motivo il fenomeno non si fermera’:

Il fenomeno dei chatbot sui social NON puo' essere fermato perche' viene usato dallo stato, dagli amici dello stato e fa business, tanto business

Quindi rassegnatevi, non vedrete mai “il giorno in cui i bot vengono cacciati TUTTI dalla rete”.

Adesso andiamo ad un dettaglio interessante: ma non c’e’ il rischio che due bot di fazioni avverse entrino in loop, sprecando una quantita’ enorme di risorse?

E’ chiaro che in qualche modo i bot debbano riconoscersi tra loro, altrimenti il rischio e’ quello che si sprechino soldi per bot che rispondono ad altri bot che rispondono ad altri bot.

Ci sono diverse soluzioni a questo. Una e’ quella di marcare in qualche modo gli account. Su Facebook c’e’ solo l’imbarazzo della scelta, su twitter potete fare questo:

Quel piccolo segnetto arabo che sta subito dopo il nick non e’ solo un modo per dire “sono cristiano”: cosi’ come le bandierine , il font usato per descrivere il nick ed altro, serve a distinguere una specifica botnet, quando non una specifica agenzia, in modo da evitare che botnet “alleate” vadano in loop. Apparentemente sono segnali di appartenenza “umani”, ma hanno il grandissimo scopo di impedire il fuoco amico.

Dietro a questo mondo del consenso artificiale c’e’ tutto un ecosistema di tecniche, strategie, trucchi e complessita’. Non basterebbero 1000 post per spiegare quanto sofisticato sia questo mondo.

Se non volete essere coinvolti in una psyops, tutto quello che dovete fare e’ semplice: “sconnettetevi”.

Chiudete l’account sui social, e al massimo se proprio volete dire quel che pensate aprite un blog. Senza commenti, senza contatti.

In fondo, non e’ cosi’ difficile. I social mainstream si possono anche usare da fruitori, cioe’ per scaricare contenuti, senza necessariamente partecipare alla loro creazione.

La cosa da tenere in mente, invece, e’ che queste tecniche cambiano anche le organizzazioni che ne fanno uso. Da quando lo stato si e’ messo a fare uso dei chatbot, cioe’, non e’ piu’ lo stato che ricordavate. E’ diventato una cosa diversa, che probabilmente farebbe orrore a qualsiasi cittadino lo venga a sapere. Anche perche’ ci sono dei software finanziari che agiscono ascoltando e monitorando i siti social e lo stesso web (google ha ammesso di usarne uno per i propri investimenti) , quindi una volta costruite le botnet, e’ possibile anche influenzare le borse e gli investitori.

Ma questo sara’ piu’ evidente tra pochi mesi.