La appe the spoglia le fimmene, ovvero dell'immaginazione artificiale.

Si direbbe che la tecnologia deepfake sia finalmente arrivata alle cronache, e adesso tutti ne sono terrificati. In pratica la tecnologia pratica un collage, che potrebbe essere fatto anche con photoshop (o con qualche software di video editing), ma siccome c'e' di mezzo il deep-learning allora diventa una cosa mostruosa semplicemente perche' nessuno ha capito cosa facciano quelle tecnologie.

Allora, partiamo dall'inizio. Avete presente la vostra vicina di casa/cugina/professoressa/collega molto attraente? Bene. Adesso chiudete gli occhi. Immaginatela nuda. Ci siete riusciti? Certo che ci siete riusciti, lo avrete fatto cinquantamila volte prima di oggi.

Complimenti, avete creato un deepfake nella vostra mente. Avete, cioe', spogliato una donna con gli occhi, come si dice. Solo che quando spogliate una donna con gli occhi lo fate in realta' con la corteccia celebrale, ma chi ha coniato il temine credeva che la visione dipendesse dagli occhi.

Detto che spogliare le donne sia una questione di immaginazione, adesso il problema e' che vorremmo avere la fotografia , il quadro, insomma qualcosa che possiamo guardare davvero. Abbiamo diverse alternative:

Chiaramente, l'ultima e' la piu' economica ed e' la piu' scelta. Tutti abbiamo fantasticato sulla collega graziosa, suvvia. Chi NON lo ha fatto ha fantasticato invece sul collega grazioso, tutto qui. Ma e' la stessa cosa.

Deepfake e' leggermente MENO economica, nel senso che dovete scaricare il software, tararlo, farci qualche prova, e quindi costa molto piu' tempo. Ma se la vostra fantasia non e' abbastanza potente (cioe' avete bisogno di un INPUT attraverso gli occhi) allora e' la piu' economica tra quelle fattibili.

Deepfake non e' “Intelligenza” artificiale. E' un programma di IMMAGINAZIONE artificiale. Si limita ad immaginare la vicina di casa come la immaginate voi, ma senza la fatica di immaginarla davvero.

Il problema della privacy, dunque, e' INVENTATO. La fotografia della ragazza spogliata NON ritrae lei nuda, almeno quanto la vostra immaginazione non la ritrae mentre vi fa davvero un pompino. Si tratta di un costrutto , prodotto da un sistema di immaginazione artificiale.

Si potrebbero fare delle considerazioni interessanti sul perche' le persone , che normalmente sono dotate di immaginazione naturale , abbiano bisogno di immaginazione artificiale, ma il punto e' che la notizia sta venendo data in questo modo:

LOL

ovvero come se le ragazze venissero “spogliate” dal software. Ma non e' cosi', e potete provarlo voi stessi: prendete una volontaria che abbia un tatuaggio in un punto che nella foto orginale e' coperto. Passatelo a deepfake. Scoprirete subito che deepfake restituisce una foto della ragazza nuda, ma non c'e' il tatuaggio. E questo e' ovvio, dal momento che il software NON puo' “spogliare” le ragazze. Puo' solo “immaginarle” nude: ma vale la stessa cosa che vale per voi.

Del resto se non sapete che la ragazza ha un tatuaggio in un luogo che non avete mai visto, nemmeno voi immaginerete il tatuaggio. (o la cicatrice, o un particolare dettaglio fisico). Quando andate per la prima volta con una donna che avete immaginato mille volte, trovate sempre delle “sorprese” , dei dettagli che non avevate immaginato, perche' non potevate esserne a conoscenza. Non ci sono due donne uguali.(ok, ok, non ho i numeri per fare statistiche. Diciamo che sto speculando basandomi su un certo numero di aneddoti personali).

Questo e' il primo punto: la privacy non c'entra nulla. Si tratta solo di un'immaginazione artificiale, del tutto simile all'immaginazione umana. Tutto qui. Le considerazioni da fare sarebbero altre, non quelle sulla privacy.

Ma allora perche' fa scalpore? Si dice che adesso :

vendettaaa

addirittura uno strumento di massa. E perche', di preciso?

alcuni maschi

Insomma, l'uso di questa fake app non e' di sostituire l'immaginazione erotica, ma quello di consentire “ad alcuni maschi” di “vendicarsi” sulle donne del quartiere.

Io non so in che quartiere viva questa signora, ma vedo almeno due problemi:

Il resto del pippone per cui la app e' nata per “ricacciare le donne indietro nella vita” lo lascio alle sbroccanti. Rimane, dice qualcuno, il tema del revenge porn e del “racket”. Immagino quindi che ci siano statistiche su questi racket, o che ci siano numeri , casi, di revenge porn fatto con una app del genere. Bene.

noncisonocasi

Ecco qui: non ci sono casi noti, ma “e' prevedibile che accadra'” , dal momento che la mole del fenomeno e' impressionante. Una persona che mi fa previsioni qualitative basandosi su una dimensione sola, e quantitativa, per me va cacciata da qualsiasi ambito scientifico , e anche dalle vicinanze. E' come dire che siccome la mole di fumetti in vendita e' enorme, e' prevedibile che arrivera' l'uomo ragno. Scienza pura.

Tutto quello che vedo in questa “notizia” e' che:

Mancano solo l'invettiva contro il capitalismo e il balcone balcano, e siamo a livello della canzone del primo maggio di Elio.

Una tesi inventata, che parla di un pericolo documentato da ZERO casi, che cita studi non meglio specificati sul fatto che “certi maschi” (ma non certe femmine) amano umiliare le donne, e che prevedibilmente lo faranno visto che ci sono un sacco di immagini su internet.

E sia chiaro: “i governi sono impreparati”, eh.

Non hanno la loro “scienza”....