Europa contro Hollywood.

Oggi mi e' capitato di leggere in giro del fatto che la EU sta cercando di scrivere una legislazione che riguardi gli usi "ETICI" dell'intelligenza artificiale. Ho cercato di capire cosa stanno cercando di fare, e l'unica parola che mi e' venuta in mente e' stata "Hollywood".
La mia posizione e' questa, ed e' semplice: quando cerchi di evitare qualche rischio, leggi della letteratura scientifica sui rischi. Esiste letteratura sui rischi che corriamo, diciamo letteratura scientifica di persone uccise o danneggiata dall'intelligenza artificiale?
Saremmo tentati di dire che e' troppo presto, ma le cose non stanno cosi'. Esistono due gruppi di persone che sono state uccise dall'intelligenza artificiale.
Il primo gruppo e' quello dei proprietari statunitensi di automobili Tesla. Succede che gli imbecilli naturali al volante dormano alla guida, oppure facciano altro, e l'intelligenza artificiale al volante, che non e' una guida autonoma ma una guida assistita, causa un incidente mortale.
Qui si puo' discutere dell'uso proprio o improprio dell'intelligenza artificiale, ma siccome anche la guida assistita rientra nella definizione di Intelligenza Artificiale, e siccome "frena prima di un camion" e' sicuramente "guida assistita", direi che possiamo annoverare questi morti nella casistica di "uccisi dalla IA".
Il secondo gruppo e' piu' "fumoso", nel senso che ci sono di mezzo i militari coi loro segreti. Sappiamo che in Libia uno o piu' droni abbiano aperto il fuoco su persone che sembravano loro terroristi , senza chiedere il benestare alla base, cioe' agendo autonomamente.
Qui c'e' dietro un sacco di segreto militare: non si sa di preciso quanti morti, quali morti, cosa sia successo, eccetera. Si sa solo che e' successo qualche del genere.
Questo e' il secondo gruppo di vittime umane della IA.
Ci si aspetterebbe quindi che una regolazione europea sul tema cominciasse tenendo in considerazione cio' che esiste, cioe' le AI che stanno sulle automobili e che diventano sempre piu' invasive e potenti, e sugli strumenti militari. Questo perche' esiste letteratura.
No.
Al contrario, la legislazione europea sembra ispirarsi a Hollywood.
Si leggono cose come "Polizia predittiva". Ora, sino ad oggi non esistono al mondo sistemi ove una IA dica "questo tizio uccidera' domani" e la polizia ti arresta oggi. Esistono solo in un film, Minority Report, che peraltro non usava delle IA. Tuttavia, alla EU qualcuno ha deciso di fermare questa cosa.
L'unica prova che esiste di sistemi capaci di profilare le persone abbastanza da capire se faranno o non faranno qualcosa in futuro sono i sistemi di profilazione pubblicitaria, che riescono a fare profilazione psicologica al punto di capire cosa potremmo comprare. Ma non avendo alcun sistema capace di capire di preciso "da cosa si riconosce un criminale" , una "polizia predittiva" e' impossibile: i tratti caratteriali misurabili non comprendono l'attitudine al crimine, al massimo la "unagreeability", che pero' sinora viene associata al successo nella vita professionale.
Sappiamo dai titoli dei giornali che la UE sta lottando contro "il Grande Fratello", cioe' contro il personaggio di un libro del secolo scorso, e che si occupera' anche di "profilazione sociale".
Altre tecnologie che vengono ritenute "problematiche" sono il "social ranking" , che viene praticato in Cina, e consiste in una serie di ostracismi applicati a chi non si allinea alle idee del governo e/o alla cultura comunista, e il riconoscimento facciale.
Anche qui, c'e' da mettersi le mani nei capelli dalla stupidita'. Quando si discute di introdurre una tecnologia non si discute MAI della tecnologia in se', ma si discute dell'alternativa esistente, e la si confronta. Se c'e' miglioramento si preferisce la tecnologia nuova, altrimenti si preferisce quella vecchia.
Ipotizziamo dunque che esista una "Polizia Predittiva" basata sull'intelligenza artificiale. Ci si riferisce a qualcosa che, in autonomia, segnala una persona PRIMA che abbia davvero commesso un crimine. Questa cosa esiste gia' o meno?
Esiste gia', e si chiama "prevenzione". Quando si arresta un terrorista sulla base del fatto che "stava organizzando un attentato", per esempio, si fa gia' Polizia Predittiva.
Il problema e' che oggi la stragrande maggioranza di tali interventi e' un completo fiasco, e ci finiscono di mezzo degli innocenti le cui intenzioni sono state fraintese. Per non parlare di cose come queste:
Allora, in questo caso il problema e' il seguente:
- Chiarito che lo stato FA Polizia Predittiva, solo che la chiama in modi diversi.
- Preferite che lo faccia un magistrato umano, o che lo faccia una macchina?
Andiamo al secondo punto, cioe' il social ranking, o il Social Credit System che oggi "si fa solo in Cina": si fa solo in Cina? E perche' se una maestra d'asilo finisce sputtanata perche' scopa col fidanzato, LA SCUOLA LA LICENZIA? Ha qualcosa a che vedere con l'insegnamento? Perche' se si scopre che una prof di liceo e' una scambista, viene licenziata? Quello che fa nel privato ha qualcosa a che vedere con l'insegnamento?
Come mai oggi i processi si fanno sui massmedia e non si aspetta piu' la sentenza per dichiarare la colpevolezza?
La verita' e' che un sistema di social credit esiste gia', e' implementato sotto forma di linciaggio mediatico, e puo' distruggere la vita di una persona esattamente come , quanto , quando e perche' lo fa il sistema cinese.
E allora:
- Evidente che esiste gia' un sistema consolidato di social credit , oggi gestito da una mafia di giornalari , funzionari bigotti e paesani provinciali.
- Preferite che sia una macchina , o che sia il bigotto vicino di casa a gestire il vostro credito sociale?
Sul riconoscimento biometrico siamo al ridicolo. Oggi come oggi, la polizia "riconosce" di solito i sospetti usando delle fotografie di qualita' scandalosamente bassa, oppure usando "testimoni" che oggi si comprano un tanto al chilo nei bar di fronte ad ogni tribunale d'italia. Oppure si usa questo metodo:
Adesso abbiamo testimoni che testimoniano con lucidita' discutibile, un processo di "identikit" che probabilmente ha sparato in galera migliaia di innocenti, e una macchina che riconosce il viso con piu' del 95% di precisione.
Scusatemi tanto se preferisco la macchina.
Almeno non la possono corrompere o minacciare come si fa coi testimoni. E ti dice se una foto e' di qualita' troppo bassa per poter lavorare.
Per quanto riguarda il discorso del "Grande Fratello", un parlamento EU che pubblica i comunicati stampa su Facebook e poi si lamenta della raccolta dei dati e del loro abuso e' semplicemente incommentabile.
In generale, vedo che l'approccio non e' quello di capire se ci sia un progresso. Se arriva una tecnologia nuova, quello che si fa e' di confrontarla con l'esistente, per capire se la sua adozione migliora o peggiora le cose.
Al contrario, l'approccio non e' quello di cominciare a capire se la tecnologia sia migliore o peggiore di quello che stiamo gia' usando, non ci si chiede se la "Polizia Predittiva" sia migliore o peggiore della "polizia di prevenzione" o dei "sequestri preventivi".
Il Parlamento UE sta usando un approccio MORALE per giudicare le nuove tecnologie. E come se non bastasse, la morale che sta usando non ha origine politica o filosofica, ma viene DIRETTAMENTE da Hollywood.
Non ci si occupa di stabilire se queste tecnologie possano migliorare la legge , la giustizia, la polizia rispetto ai metodi antidiluviani che si usano oggi. Ci si occupa di stabilire se siano "buone" o "cattive", "preoccupanti" o "pericolose", e come se non bastasse il giudizio viene da Hollywood. (per la semplice ragione che non esiste ancora alcuna letteratura, tranne quella fantascientifica, capace di offrire degli appigli).
Se si fosse seguita una logica legata alla letteratura scientifica esistente, la UE avrebbe dovuto occuparsi principalmente della IA dentro le auto (visto che ci sono stati dei morti per via delle auto Tesla con la "guida assistita") e degli usi militari. Al contrario, la UE sta andando a lavorare "preventivamente" su tecnologie che non sono mai state viste al lavoro, e che hanno come unica letteratura dei film di Hollywood.
Viene da chiedersi cosa sarebbe successo, o cosa succederebbe, se in un ipotetico Sequel di Minority Report ci fosse il caso di un pericoloso terrorista che bisogna firmare a tutti i costi, e all'eroe venisse chiesto di convincere i tre mutanti a tornare al lavoro per salvare la popolazione da un malvagio terrorista. Adesso la polizia preventiva e' buona. Che facciamo ora?
O viene da chiedersi cosa sarebbe successo se la trama di Minority report avesse dipinto positivamente questa tecnica: questo e' il rischio che si corre quando ci si affida ad Hollywood per fare politica.
L'ultimo punto da deridere in questa vicenda e' la storia del "copyright delle immagini che ChatGPT usa per addestrarsi". Questa cosa e' una stronzata cosi' gigantesca che e' imbarazzante solo citarla.
Innanzitutto, gli esempi che fornite ad una AI sono oggetto di "machine-learning", cioe' di apprendimento automatico. La parola "apprendimento" dovrebbe mettervi in allarme. Perche'?
Perche' dire che e' illegale prendere un'opera coperta da Copyright e usarla gratis per apprendere sulla grafica (perche' questo fanno le AI), e' come dire che chi vuole fare del Rock puo' solo reinventare daccapo il Rock, dal momento che ascoltarlo e imparare (op lasciarsi ispirare) diventerebbe illegale.
Vorrei chiedere ai pittori che si lamentano quante opere abbiano GUARDATO allo scopo di istruirsi: o davvero avete reinventato la puttura ad olio su tela di sana pianta? Vorrei sapere dai grafici e dagli illustratori quante opere hanno GUARDATO prima di formare i proprio stile, o davvero avete reinventato la fotografia, l'illustrazione, e tutte le relative tecniche, da zero?
Sinora, l'idea di educare il proprio orecchio ascoltando musica di altri, di educare i propri occhi guardando altre opere, di educare la propria scrittura leggendo libri di altri, era stata esente da tasse e tributi.
Qui, invece , stiamo passando all'idea che la funzione di apprendimento sia a sua volta sottomessa alle regole del copyright. Se adesso facciamo passare il principio che l'apprendimento e' soggetto a questa tassazione, sara' un attimo passare dal farvi pagare il copy right per tutto quel che guardate, in quanto state apprendendo. Un aspirante fotografo aprirebbe un sito e si troverebbe a pagare il copyright per ogni immagine che guarda, poiche' si sta formando alla luce di altri maestri?
E' ovvio che l'industria cinematografica e musicale vi faranno credere questo.
Prendiamo Stable Diffusion. Voi siete stati suggestionati da terminator, volete fare una copertina e chiedete di fare un cyborg a Stable Diffusion. Magari il Cyborg avra' degli elementi presi da Terminator:
In un caso, c'e' un occhio rosso come quello in Terminator. Nell'altro ,una parte del viso scarnificato. Riesco a vedere citazioni di diversi film, qui. Ma adesso il problema e' capire se per risalire all'origine artificiale del film sia sufficiente che ci sia un occhio rosso in comune.
Anche perche' sono possibili anche mescolanze:
queste statue pagano pegno a Botero o a Modigliani? E in che misura?

La verita' e' che in una VERA disputa sul Copyright, sarebbe davvero difficile vincere con queste immagini. E' vero che ci sono dei richiami, ma ricadrebbero sotto il "fair use".
Ma stranamente, se il fair use viene tollerato per gli esseri umani, non viene piu' tollerato per le macchine. Sembra un criterio sensato, ma Blender ha gia il plugin per Stable Diffusion, e tutti i programmi di grafica si stanno adeguando: e alcuni hanno la possibilita' di decidere da quali esempi imparare.
Nel caso di un artista che usi questa AI a supporto, chi deve pagare il copyright alle immagini famose dalle quali SIA l'artista umano, SIA ChatGPT stanno imparando?
Il problema, poi, nel caso in cui si dovesse procedere ad una denuncia, e' risalire all'origine dell' ispirazione. Prendiamo la seguente "poesia":
Chi Muore per la Pizza Vissuto e' Assai
Oh, pizza dall'ananas incantato,
Dai sapori arditi e speziati,
Con il nitrato di bismuto profumato,
Che inebria i sensi estasiati.
Eroi dell'alimentazione,
Sfida ai palati timorosi,
Sul trionfale piatto in porzione,
Suggella l'impresa dei coraggiosi.
Irradia di forza e di vigore,
Con la freschezza dell'ananas regale,
Un'esperienza di sapore,
Che solo i più arditi sanno apprezzare.
E nel nitrato di bismuto,
La luce dell'arte culinaria,
Che con la sua potenza lo rende assoluto,
Eterno simbolo di golosità incantata.
Oh, pizza eroica e indomita,
Che sfida il destino con ardore,
Ti innalzo su un trono di stelle,
Nella mia gola risuoni la tua vittoria d'amore.
- Gabriele D'Annunzio
- Me sottoscritto.
- Gabriele d'Annunzio e Me e ChatGPT
Non affannatevi a capire, l'ho scritta io imitando i miei ricordi liceali di D'Annunzio. ChatGPT non c'entra. Come fareste a dimostrarlo?
L'alternativa e' che andreste a far pagare copyright a ChatGPT anche senza che produca qualcosa, ma solo perche' ha imparato. Fatto questo, avrete aperto le porte alla tassazione di chi guarda qualsiasi cosa e impara qualcosa.
Non credo che serva commentare oltre questa idea bislacca di cercare di stabilire se una IA abbia usato materiale coperto da copyright per imparare la grafica. E' assurda, stupida e pericolosa.
La UE si e' gasata un po' troppo per il successo del GDPR, e adesso crede di essere all'avanguardia su ogni cosa fa.
Mi sa che prima o poi si scontreranno con la loro stessa incompetenza.