Ranking di universita'

In questi giorni sta suscitando un notevole clamore la pubblicazione della nuova classifica delle università e della loro qualità complessiva. È un tema che, immancabilmente, solleva dubbi e interrogativi: chi stabilisce davvero queste graduatorie? Siamo certi che non vi siano interessi nascosti o logiche di potere dietro le quinte? E, soprattutto, su quali criteri si fondano? Come si definisce e si misura la bontà di un ateneo?

Domande legittime, che emergono in un contesto in cui la reputazione accademica rappresenta una merce di scambio tanto preziosa quanto delicata. È noto, infatti, che il ranking delle università non è una questione meramente oggettiva. Dietro le classifiche si celano metodologie complesse, spesso basate su indicatori come la qualità della ricerca scientifica, la reputazione internazionale, l’occupabilità dei laureati e la disponibilità di risorse economiche e infrastrutturali. Tuttavia, non mancano le critiche: alcuni studiosi, come lo storico dell’educazione David Labaree, sostengono che questi ranking contribuiscano a perpetuare disuguaglianze, favorendo gli atenei più ricchi e consolidati.

A livello storico, l’ossessione per le classifiche universitarie ha radici relativamente recenti. Se è vero che già nel Medioevo i centri di sapere come Bologna, Parigi e Oxford godevano di un prestigio informale, la formalizzazione dei ranking moderni è iniziata soltanto negli anni ’80 e ’90, con la crescente internazionalizzazione dell’istruzione superiore e la globalizzazione del mercato del lavoro.

In questo scenario, la domanda centrale rimane sempre la stessa: cos’è davvero una “buona” università? Un interrogativo che, ancora oggi, rimane aperto e sfida i nostri pregiudizi e le metriche convenzionali.


In realtà, esistono diversi tipi di ranking universitari, ciascuno con una propria metodologia e filosofia. La prima grande distinzione è tra i ranking cosiddetti “cooperativi”, in cui le università vengono analizzate anche dall’interno e partecipano attivamente al processo fornendo dati e informazioni, e quelli “non cooperativi”, che invece si basano su fonti esterne e indipendenti.

Le classifiche cooperative, come ad esempio il QS World University Rankings o il Times Higher Education (THE), si fondano su questionari, interviste e dati auto-segnalati dalle università stesse. Questo coinvolgimento diretto può comportare, da un lato, una maggiore ricchezza di informazioni e, dall’altro, il rischio che gli atenei cerchino di presentarsi nella luce più favorevole possibile.

Di contro, le classifiche non cooperative – come quella pubblicata proprio ieri dal Center for World University Rankings (CWUR) – non richiedono la partecipazione attiva delle università. In questo caso, i dati vengono estratti da fonti pubbliche e banche dati indipendenti, riducendo la possibilità di manipolazione.

Il CWUR, acronimo di Center for World University Rankings, è un’organizzazione internazionale che ogni anno pubblica una delle classifiche più estese e riconosciute nel panorama accademico. La sua classifica, nota come CWUR Rankings, prende in esame oltre 20.000 università di tutto il mondo e ne seleziona le migliori 2.000, rappresentando ben 94 Paesi. È un esercizio di valutazione di ampio respiro, che offre una fotografia globale dell’eccellenza accademica e scientifica, pur restando estraneo alle dinamiche interne e ai report auto-referenziali degli atenei.

La prima domanda che sorge spontanea è: come vengono effettivamente realizzati questi ranking?

Prendiamo ad esempio il Center for World University Rankings (CWUR), uno degli attori più noti in questo ambito. Secondo quanto riportano sul loro sito ufficiale, il CWUR utilizza quattro metriche principali, e nessuna di queste, a quanto pare, è di tipo “cooperativo” o direttamente influenzabile dalle stesse università. Vediamole nel dettaglio:

Quando affermo che questi dati non sono facilmente “influenzabili” o “cooperativi”, intendo dire che non derivano da informazioni fornite direttamente dalle università. Non sono frutto di questionari compilati dagli atenei, né di autovalutazioni interne. Questo aspetto rende più difficile, almeno in teoria, per le università manipolare o “truccare” la propria posizione in classifica. I dati utilizzati dal CWUR provengono da fonti indipendenti, come banche dati accademiche e pubblicazioni scientifiche, e non richiedono la cooperazione attiva degli atenei stessi.

Naturalmente, anche questo sistema non è esente da critiche: se da un lato l’indipendenza dei dati dovrebbe garantire maggiore oggettività, dall’altro c’è chi sottolinea che il successo degli ex studenti e la produttività scientifica rispecchiano solo una parte dell’esperienza universitaria. Tuttavia, è indubbio che la metodologia del CWUR, basata su dati “non cooperativi”, rappresenta un tentativo concreto di ridurre la possibilità di manipolazione da parte degli atenei.


Sebbene non sia cooperativa, pero', questa metrica non e' esente da critiche. Il fatto che la quantita' di paper pubblicati e la loro influenza valga QUATTRO VOLTE la qualita' dei docenti, non spinge le universita' a correre per avere i docenti migliori, ma ad avere docenti anche mediocri, ma molto bravi nel trasformare i dipartimenti in fabbriche di articoli scientifici, cioe' a coltivare rapporti con giornali scientifici, enti di ricerca blasonati, eccetera.

Le metriche, inoltre, non sono nemmeno indipendenti. Ricerca e Qualita' dell'istruzione, per esempio, si sovrappongono perche' una misura la carriera accademica – che dipende dal numero di paper pubblicati – mentre la quarta (ricerca) conta ancora una volta... i paper pubblicati. Le metriche dovrebbero quindi essere tre, di cui “paper pubblicati” dovrebbe occupare le prime due, con un bel 65% di importanza.

Piuttosto stravagante.

Il problema e' che anche qualita' dei docenti non fa altro che misurare i riconoscimenti accademici, che arrivano coi paper pubblicati. None' la stessa cosa, ma e' dipendente. Quindi sale al 75% l'influenza dei numero di paper pubblicati, e rimane solo un 25% di un parametro indipendente, cioe' l'occupabilita' sul mercato del lavoro.

Possiamo dire, quindi, che il CWUR valuta principalmente usando fattori che dipendono da:

  1. numero di paper pubblicati
  2. peer review positive ai paper
  3. riconoscimenti accademici ai paper
  4. occupabilita' dei laureati

Come vedete, tre criteri su quattro sono legati ai paper pubblicati.

facendo in questo modo, si ottiene un effetto abbastanza semplice: alle universita' conviene fare networking e stare tutte nella stessa citta', in modo che studenti e professori facciano networking. Perche'?


Prendiamo per esempio la zona di Boston, nel MAssachussets.

Cluster simili esistono in giro per il mondo. Quindi rifacciamo la lista, anche se meno dettagliata.

ed ecco che, guarda caso, abbiamo preso quasi tutta la parte “alta” della classifica internazionale. Quindi, a quanto pare, il clustering geografico sembra fondamentale.

Interessante che non ci siano cluster cinesi, viene il dubbio che loro ce la facciano da soli.


Perché la clusterizzazione è così cruciale? La risposta sta nella natura stessa del ranking del CWUR, che, come abbiamo visto, assegna ben il 75% del punteggio complessivo a fattori legati alla pubblicazione scientifica, all’influenza dei papers e ai riconoscimenti accademici.

È evidente che quando ci troviamo in un’area geografica densamente popolata da università – come nel raggio di 100 chilometri intorno a Boston, ad esempio – il livello di networking e collaborazione tra gli atenei e i loro docenti cresce in maniera esponenziale. In questi cluster accademici, i professori spesso insegnano in più università, partecipano a conferenze comuni, collaborano su progetti di ricerca e hanno accesso diretto alle principali riviste scientifiche.

Ma non basta pubblicare un paper: per essere citato e diventare influente, il paper deve essere sottoposto a una peer review positiva. E qui entra in gioco un meccanismo informale ma decisivo: la possibilità di alzare il telefono e dire al collega di un altro ateneo, “Ehi Joe, ho appena completato un paper: potresti dargli un’occhiata per la revisione? Ricambierò volentieri in futuro”. Questo tipo di reciprocità e di collaborazione trasversale è un moltiplicatore formidabile della produttività scientifica.

Allo stesso modo, la concentrazione di istituzioni accademiche in uno spazio relativamente ristretto crea un ecosistema in cui l’innovazione e la diffusione del sapere si alimentano continuamente. Non è un caso che le aree con la maggiore densità di università – come Boston, Londra o l’area di San Francisco – siano anche quelle che producono il più alto numero di pubblicazioni e, di conseguenza, dominano le classifiche.


Poco sorprendentemente, anche le riviste che pubblicano – e danno importanza – ai paper sono concentrate negli stessi cluster:


Le classifiche universitarie internazionali, come quelle del CWUR, QS, THE, ARWU, ecc., si basano su criteri apparentemente oggettivi (pubblicazioni, citazioni, premi, reputazione, ecc.), ma il networking personale e istituzionale gioca un ruolo fondamentale nei risultati ottenuti dalle università e dai singoli ricercatori.

Perché il networking conta così tanto

  1. Collaborazioni e co-autorship
    Le università con una forte concentrazione di talenti e risorse attraggono ricercatori di alto livello, facilitano collaborazioni interdisciplinari e internazionali e producono più facilmente lavori di grande impatto.

  2. Peer review e pubblicazione
    Avere una rete di conoscenze accademiche aumenta le probabilità che i propri lavori vengano valutati da colleghi aperti e competenti, e che trovino spazio in riviste di prestigio (che spesso hanno anche redazioni e revisori legati ai grandi atenei).

  3. Citazioni e visibilità
    Se lavori in un ambiente dove ci sono molti altri ricercatori di spicco, è più probabile che il tuo lavoro venga letto, citato e discusso, aumentando l’impatto della tua ricerca.

  4. Accesso a finanziamenti e risorse
    Le università più “connesse” hanno più facilità a ottenere fondi pubblici e privati, a partecipare a progetti internazionali e a promuovere i propri risultati.

Effetti sulle classifiche

Conclusione

Le classifiche universitarie non misurano solo la qualità intrinseca della ricerca o della didattica, ma anche la capacità delle istituzioni (e dei singoli ricercatori) di inserirsi in reti accademiche globali.

In altre parole, il networking è uno dei fattori chiave del successo accademico e, indirettamente, anche delle classifiche.


È possibile, dunque, “drogare” questa classifica in modo poco percettibile? La risposta è: certo che sì. Basta guardare alla struttura dei ranking stessi.

Immaginiamo di dividere l’Italia in tre grandi cluster: Centro, Nord e Sud. Con gli strumenti del Ministero e delle politiche di finanziamento pubblico, si potrebbero incentivare esclusivamente progetti di ricerca interuniversitari, premiando quelli che coinvolgono più atenei contemporaneamente. Parallelamente, si potrebbe finanziare la mobilità di studenti, dottorandi e docenti, creando una vera e propria rete accademica. Si sosterrebbero in modo preferenziale anche le pubblicazioni su riviste scientifiche “locali”, cioè pertinenti al cluster stesso.

In una decina o ventina d’anni, questi tre cluster diventerebbero altrettanto dominanti e competitivi a livello internazionale. Il tutto senza modificare sostanzialmente la qualità della didattica: perché i parametri usati dal CWUR e da ranking simili si basano interamente su paper, peer review e riconoscimenti accademici, non sulla qualità delle lezioni in aula. Questi indicatori, una volta alimentati con finanziamenti e collaborazioni incrociate, possono crescere quasi artificialmente e generare un “effetto domino” nella reputazione e nel posizionamento globale.

Eppure, è qui che emerge la contraddizione: questi interventi strutturali, per quanto potenzialmente benefici per l’ecosistema della ricerca, non hanno nulla a che fare con la qualità dell’insegnamento. È vero, forse una riforma di questo tipo migliorerebbe un po’ la cultura accademica italiana, troppo spesso chiusa e autoreferenziale. Ma gli effetti concreti sulla didattica resterebbero, nella migliore delle ipotesi, secondari.

Per questo motivo, è bene prendere atto di un fatto: ranking e qualità dell’insegnamento, se misurati con questi strumenti, possono divergere per ragioni puramente geografiche e sistemiche. E la retorica dei “primi posti in classifica” non sempre riflette ciò che davvero conta per chi studia.

il Preside della Divina Scuola di Hokuto, Stroboscopico [inserire qui altri ego-aggettivi a cazzo, tipo “magnifico” o “chiarissimo” ] Tecnovescovo,

Uriel Fanelli


Il blog e' visibile dal Fediverso facendo il follow a: @uriel@keinpfusch.net

Contatti: