Q-Star, o Q*

Tra i buzzwordisti della AI e' saltato fuori che tra i prodotti futuri di ChatGPT ci sia una cosa che si chiama Q-Star, che sarebbe a detta del gossip una AGI, cioe' un'intelligenza artificiale generale. E il problema e' che i giornalai adesso hanno un problema. Non perche' Q-Star esista, ma perche' sinora hanno trattato i modelli di linguaggio come se fossero degli AGI.
COPYRIGHT DISCLAIMER: la foto all'inizio del post e' la descrizione che uno Stable Diffusion XL - fatto girare sul mio PC di casa - ha costruito usando come prompt tutte le descrizioni di "Uriel Fanelli" prese dal mio libro "Altri Robot", di cui e' protagonista. E decisamente, e' una delle piu' vicine a quello che avevo in mente scrivendo.
Come ho scritto decine di volte, ChatGPT e' un modello di linguaggio molto grande. Di conseguenza , potete usarlo solo per problemi legati al linguaggio (rilettura, cambiamento di stile , correzione, traduzione ) , perche' si tratta di una AI non generale, cioe' di una AI che fa una sola cosa.
Di conseguenza, i giornalisti e i pseudoesperti che se ne uscivano dicendo "Muh ChatGPT non sa contare", o "Muh ChatGPT non sa programmare bene", stanno per farci una figura di merda, perche' hanno cercato di usare una lavastoviglie per stirare i panni, e credono di aver vinto il Nobel per aver scoperto che non si puo'. Complimenti, Sherlock. Altre scoperte geniali?
E alla fine, tutte le AI sinora hanno questa caratteristica, cioe' fanno una sola cosa. Non si tratta, quindi, di AGI. Certo, se "il linguaggio" e' una sola cosa, sembra molto rilevante perche il linguaggio e' lo strumento che usiamo per scambiare le idee, quindi molto sono portati a pensare che se una cosa parla allora sta scambiando idee.
Ma non e' cosi'.
Una AGI invece e' una cosa diversa. Si suppone che sia capace di superare problemi generali, nel senso che sarebbe una AI non specializzata. Saprebbe dipingere, comporre musica, scrivere, fare i conti, programmare, e qualsiasi problema possiamo sottoporre oggi che possiamo parlarci.
Sia chiaro, nessuno e' stupito che ci sia voluto cosi' poco. In generale, il problema che abbiamo con le macchine e' che dobbiamo imparare dei particolari linguaggi di programmazione (e poi passare 4 giorni a discutere la naming convention delle variabili e la strategia di fork di git, che a mio avviso descrive la stupidita' naturale).
Il primo e piu' grande problema del costruire macchine che risolvono problemi generali e' quello di descrivere i problemi in termini che la macchina capisca, attivita' detta anche "programmare".
Una volta costruita una macchina che manipola il linguaggio naturale, la distanza dalla AGI si e' estremamente ridotta. Non mi stupisce affatto che dopo i VLLM siamo gia' arrivati ad una AGI. E non vi illudete, il prossimo passo sara' ancora piu' veloce e brutale, perche' siamo al punto in cui una o piu' AGI possono costruire una ASI, o almeno aiutare. (una ASI e' una AI generale dalle capacita' superiori a quelle umane).
Comunque, adesso per spiegare cosa succeda occorrera' una buona volta spiegare la differenza tra una AGI e ChatGPT o DELL-E, che rendera' ridicoli i geniacci che continuano a "scoprire" che "la IA non puo' fare questo e quello", quando stanno solo dimostrando che un modello di linguaggio puo' solo fare il modello di linguaggio.
Bel colpo.
Andiamo adesso al gossip, perche' quanto ci arriva e' abbastanza ambiguo.
La prima cosa e' che questa AGI sia "arrivata solo al livello di un bambino di 10 anni". C'e' chi dice 10, chi 7 , chi otto, e cosi' via.
Onestamente e' una stima che mi dice poco. Stai parlando di intelligenza in generale? Siccome i filosofi nella loro proverbiale produttivita' non ci hanno ancora dato una definizione, non sappiamo proprio come misurarla. I test di IQ di oggi si basano sulla normalizzazione della popolazione osservata rispetto ad una curva di distribuzione standard. Significa che se la popolazione e' interamente fatta di malati di mente, un QI di 120 indica un tizio che e' capace di legarsi le scarpe senza cadere, cosa che non riesce agli altri. Vedete voi che scienza c'e' dietro. (*)
Di conseguenza, si fara' come si fece col test di Turing: una macchina e' intelligente se passa il test di turing ed e' Turing-Completa. La prima cosa indica un test a doppio cieco , la seconda parte e' una dimostrazione matematica esatta.
Insomma, preparatevi, perche' ho la sensazione se la prima AGI sara' un successo, da quel momento in poi butteremo via il QI e useremo un confronto con Q-Star. Avrete, probabilmente, un tizio intelligente 0.5 Q-Star, o 1 Q-Star, o un µQ-Star (Gasparri, che so io), o persone intelligenti 100 Q-Star , tipo Hawkins.
Per quanto arbitrario, sara' sempre meglio delle attuali misure del QI.
Se invece quando diciamo che questa AGI e' intelligente quanto un bambino di 10 anni, e intendiamo l'abilita' , beh: Mozart componeva gia' a quell'eta' (ho detto componeva, non "suonava") , e ci sono bambini che se messi di fronte ad un simulatore di volo riescono a pilotare un Boeing 777 in maniera, a detta dei professionisti, molto buona.
Quindi andiamoci molto piano a usare queste descrizioni.
La nascita di intelligenze artificiali generali, e la loro messa in vendita, richiede la definizione di una qualche unita' di misura per descrivere le loro capacita'. Dopotutto e' un prodotto, e se sapete quanti cavalli ha la vostra auto, dovrete pur sapere quanto intelligente e' il prodotto che comprate. Altrimenti come fate a sceglierlo tra molti?
E' un bel pasticcio, perche' cosi' come la nascita dei modelli GPT ha dimostrato che i linguisti accademici tradizionali non ci avevano capito un cazzo (**), potrebbe succedere che la nascita di parametri per quantificare una AGI smentisca gli psicologi tradizionali. Il mondo sta diventando divertente, e lo sara' sempre di piu'.
Comunque , il punto e' che non abbiamo un'unita' di misura per quantificare (e vendere) il lavoro di una AGI. Se possiamo usare il numero di token per un VLLM come ChatGPT , o le risorse consumate alla GPU per stable Diffusion, (Amazon lo fa gia') , ma nel caso della AGI, non e' ben chiaro quale sia la misura della loro potenza , o della loro abilita', o altro.
Questa e' una cosa buffa, perche' contemporaneamente stiamo definendo due cose, AGI e ASI, partendo dal fatto che la ASI sia sovrumana: questo richiede una misura esatta di una "mente umana" , e poi un confronto con una misura della ASI. Insomma, come sappiamo quando e' una ASI?
In teoria, la ASI dovrebbe essere una AGI piu' potente di una mente umana. Ma innanzitutto, non abbiamo opinioni chiarissime e quantificabili su quanto sia potente una mente umana.
Anche perche' torna sempre la domanda: QUALE mente umana? Gasparri o Gödel? C'e' un fattore 1000, come minimo, di differenza. E specialmente, quale abilita': notiamo che ad una macchina "potente quanto un bambino di 10 anni" non metteremmo in mano un Boeing 777 da guidare, sebbene diversi bambini di 10 anni al simulatore si mostrano molto abili, e specialmente dimentichiamo che per volare meglio di un Boeing 777 basta il sistema nervoso di una zanzara. Il che vieta ancora a Gasparri di guidare un Boeing 777 (la scienza spiega tutto) , ma non ci spiega se una AGI che guida un Boeing quanto un bambino di dieci anni di fronte a Microsoft Simulator sia "sovrumana" o meno.
Un piccolo appunto: come specie umana costruiamo le macchine solo e sempre perche' sono sovrumane. Un'automobile che va piu' lenta di voi a piedi non la comprereste (mi spiace per i Flintstones) , un martello che conficca i chiodi peggio di quanto potreste fare a pugni non avrebbe senso, eccetera. Se costruiamo una macchina meno potente del corpo umano, non la compra nessuno: deve avere almeno una caratteristica sovrumana, altrimenti non avrebbe senso. Per questo , per esempio, non tengo uno schiaccianoci in casa: come quasi tutti i Judoka , non mi serve. Il medico dice che mi sono rovinato le dita, ma tant'e': nessuno compra una macchina meno potente del proprio corpo.
Anche un normale computer e' sovrumano: provate a calcolare a mente Pi greco alla stessa velocita' se ci riuscite, e scoprirete che anche un Commodore 64 puo' battervi alla grande.
E quindi , la nozione di ASI ci mette in crisi: se tutte le macchine sono sovrumane almeno in una dimensione, quando comincia una ASI?
Per questo dico di stare attentissimi: non appena si arrivera' davvero ad una AGI, il passo verso la ASI sara' brevissimo, se non trascurabile, proprio per il motivo che anche questa AGI iniziale sara' gia' sovrumana.
Anche ChatGPT e' sovrumano, per dire: scrive meglio della maggior parte degli esseri umani, scrive meglio di qualsiasi giornalista mai esistito (ok, non ci vuole molto), che possono essere opinioni, ma e' MISURABILMENTE sovrumano in termini quantitativi: scrivere tutte le risposte che scrive , leggendo tutti i prompt che legge, sarebbe impossibile per qualsiasi essere umano.
Come macchina da lavoro, e' gia' sovrumano. E con questo, immaginate quanto sara' facile distinguere una ASI da una AGI.
Qual e' l'unica cosa poco convincente del mio discorso? E' semplicemente che questa Q*, o Q-Star, sinora e' gossip.
Un gossip nato attorno ad una vicenda che cuba miliardi di dollari.
Quindi, aspettiamo di vederla.
(*) se si esegue un test del QI su una popolazione e la risposta non e' la distribuzione normale, allora si cambia il test fino a quando non esce una distribuzione normale. Quindi un QI di 100, se tutto il campione frequenta la normale di Pisa, indica una persona molto intelligente , ma se usiamo l'intero paese come campione, allora il frequentatore della Normale parte da 120. La stessa persona ha 100 o 120, a seconda del campione usato. Patascienza, insomma.
(**) Quando Chomsky dice che teme ChatGPT distrugga il mondo, probabilmente intende il SUO mondo. E fa bene a temerlo, perche' dimostrare che il linguaggio naturale puo' essere generato con un metodo statistico demolisce piu' o meno tutti i suoi lavori sulle sintassi generative. Secondo la scuola di Chomsky, e' bene ricordarlo, ChatGPT non potrebbe funzionare. Invece funziona.