Ranking di universita'
In questi giorni sta suscitando un notevole clamore la pubblicazione della nuova classifica delle università e della loro qualità complessiva. È un tema che, immancabilmente, solleva dubbi e interrogativi: chi stabilisce davvero queste graduatorie? Siamo certi che non vi siano interessi nascosti o logiche di potere dietro le quinte? E, soprattutto, su quali criteri si fondano? Come si definisce e si misura la bontà di un ateneo?
Domande legittime, che emergono in un contesto in cui la reputazione accademica rappresenta una merce di scambio tanto preziosa quanto delicata. È noto, infatti, che il ranking delle università non è una questione meramente oggettiva. Dietro le classifiche si celano metodologie complesse, spesso basate su indicatori come la qualità della ricerca scientifica, la reputazione internazionale, l’occupabilità dei laureati e la disponibilità di risorse economiche e infrastrutturali. Tuttavia, non mancano le critiche: alcuni studiosi, come lo storico dell’educazione David Labaree, sostengono che questi ranking contribuiscano a perpetuare disuguaglianze, favorendo gli atenei più ricchi e consolidati.
A livello storico, l’ossessione per le classifiche universitarie ha radici relativamente recenti. Se è vero che già nel Medioevo i centri di sapere come Bologna, Parigi e Oxford godevano di un prestigio informale, la formalizzazione dei ranking moderni è iniziata soltanto negli anni ’80 e ’90, con la crescente internazionalizzazione dell’istruzione superiore e la globalizzazione del mercato del lavoro.
In questo scenario, la domanda centrale rimane sempre la stessa: cos’è davvero una “buona” università? Un interrogativo che, ancora oggi, rimane aperto e sfida i nostri pregiudizi e le metriche convenzionali.
In realtà, esistono diversi tipi di ranking universitari, ciascuno con una propria metodologia e filosofia. La prima grande distinzione è tra i ranking cosiddetti “cooperativi”, in cui le università vengono analizzate anche dall’interno e partecipano attivamente al processo fornendo dati e informazioni, e quelli “non cooperativi”, che invece si basano su fonti esterne e indipendenti.
Le classifiche cooperative, come ad esempio il QS World University Rankings o il Times Higher Education (THE), si fondano su questionari, interviste e dati auto-segnalati dalle università stesse. Questo coinvolgimento diretto può comportare, da un lato, una maggiore ricchezza di informazioni e, dall’altro, il rischio che gli atenei cerchino di presentarsi nella luce più favorevole possibile.
Di contro, le classifiche non cooperative – come quella pubblicata proprio ieri dal Center for World University Rankings (CWUR) – non richiedono la partecipazione attiva delle università. In questo caso, i dati vengono estratti da fonti pubbliche e banche dati indipendenti, riducendo la possibilità di manipolazione.
Il CWUR, acronimo di Center for World University Rankings, è un’organizzazione internazionale che ogni anno pubblica una delle classifiche più estese e riconosciute nel panorama accademico. La sua classifica, nota come CWUR Rankings, prende in esame oltre 20.000 università di tutto il mondo e ne seleziona le migliori 2.000, rappresentando ben 94 Paesi. È un esercizio di valutazione di ampio respiro, che offre una fotografia globale dell’eccellenza accademica e scientifica, pur restando estraneo alle dinamiche interne e ai report auto-referenziali degli atenei.
La prima domanda che sorge spontanea è: come vengono effettivamente realizzati questi ranking?
Prendiamo ad esempio il Center for World University Rankings (CWUR), uno degli attori più noti in questo ambito. Secondo quanto riportano sul loro sito ufficiale, il CWUR utilizza quattro metriche principali, e nessuna di queste, a quanto pare, è di tipo “cooperativo” o direttamente influenzabile dalle stesse università. Vediamole nel dettaglio:
Qualità dell'istruzione (25%): valutata sulla base del successo accademico degli ex studenti, rapportato alle dimensioni dell’ateneo. In altre parole, si tiene conto dei riconoscimenti ottenuti dagli alumni nel corso della loro carriera accademica.
Occupabilità (25%): calcolata in base al successo professionale degli ex studenti, quindi un indicatore dell’efficacia dell’università nel formare figure spendibili nel mercato del lavoro.
Qualità dei docenti (10%): misurata considerando il numero di docenti che hanno ricevuto premi o riconoscimenti accademici di rilievo, riflettendo l’eccellenza del corpo docente.
Ricerca (40%): questa categoria comprende diversi parametri, come il volume delle pubblicazioni scientifiche, il loro impatto misurato in termini di citazioni, e l’influenza che tali pubblicazioni hanno a livello globale.
Quando affermo che questi dati non sono facilmente “influenzabili” o “cooperativi”, intendo dire che non derivano da informazioni fornite direttamente dalle università. Non sono frutto di questionari compilati dagli atenei, né di autovalutazioni interne. Questo aspetto rende più difficile, almeno in teoria, per le università manipolare o “truccare” la propria posizione in classifica. I dati utilizzati dal CWUR provengono da fonti indipendenti, come banche dati accademiche e pubblicazioni scientifiche, e non richiedono la cooperazione attiva degli atenei stessi.
Naturalmente, anche questo sistema non è esente da critiche: se da un lato l’indipendenza dei dati dovrebbe garantire maggiore oggettività, dall’altro c’è chi sottolinea che il successo degli ex studenti e la produttività scientifica rispecchiano solo una parte dell’esperienza universitaria. Tuttavia, è indubbio che la metodologia del CWUR, basata su dati “non cooperativi”, rappresenta un tentativo concreto di ridurre la possibilità di manipolazione da parte degli atenei.
Sebbene non sia cooperativa, pero', questa metrica non e' esente da critiche. Il fatto che la quantita' di paper pubblicati e la loro influenza valga QUATTRO VOLTE la qualita' dei docenti, non spinge le universita' a correre per avere i docenti migliori, ma ad avere docenti anche mediocri, ma molto bravi nel trasformare i dipartimenti in fabbriche di articoli scientifici, cioe' a coltivare rapporti con giornali scientifici, enti di ricerca blasonati, eccetera.
Le metriche, inoltre, non sono nemmeno indipendenti. Ricerca e Qualita' dell'istruzione, per esempio, si sovrappongono perche' una misura la carriera accademica – che dipende dal numero di paper pubblicati – mentre la quarta (ricerca) conta ancora una volta... i paper pubblicati. Le metriche dovrebbero quindi essere tre, di cui “paper pubblicati” dovrebbe occupare le prime due, con un bel 65% di importanza.
Piuttosto stravagante.
Il problema e' che anche qualita' dei docenti non fa altro che misurare i riconoscimenti accademici, che arrivano coi paper pubblicati. None' la stessa cosa, ma e' dipendente. Quindi sale al 75% l'influenza dei numero di paper pubblicati, e rimane solo un 25% di un parametro indipendente, cioe' l'occupabilita' sul mercato del lavoro.
Possiamo dire, quindi, che il CWUR valuta principalmente usando fattori che dipendono da:
- numero di paper pubblicati
- peer review positive ai paper
- riconoscimenti accademici ai paper
- occupabilita' dei laureati
Come vedete, tre criteri su quattro sono legati ai paper pubblicati.
facendo in questo modo, si ottiene un effetto abbastanza semplice: alle universita' conviene fare networking e stare tutte nella stessa citta', in modo che studenti e professori facciano networking. Perche'?
Prendiamo per esempio la zona di Boston, nel MAssachussets.
- Harvard University (Ivy League) – Cambridge
- Massachusetts Institute of Technology (MIT) – Cambridge
- Boston College – Chestnut Hill (Greater Boston), spesso considerata una “Ivy alternativa”
- Tufts University – Medford/Somerville (vicinissimo a Boston)
- Boston University – Boston
- Northeastern University – Boston
- Brandeis University – Waltham (vicino a Boston)
Cluster simili esistono in giro per il mondo. Quindi rifacciamo la lista, anche se meno dettagliata.
Cambridge, Regno Unito:
- University of Cambridge (31 college, tra cui Trinity, King's, St John's)
- Anglia Ruskin University
Oxford, Regno Unito:
- University of Oxford (oltre 30 college, tra cui Balliol, Magdalen, Christ Church)
- Oxford Brookes University
- Cranfield University (campus di Shrivenham)
Monaco di Baviera, Germania:
- Ludwig-Maximilians-Universität München (LMU)
- Technische Universität München (TUM)
- Diversi Max Planck Institutes (es. Max Planck Institute of Biochemistry)
- Helmholtz Zentrum München
Berlino, Germania:
- Humboldt-Universität zu Berlin
- Freie Universität Berlin
- Technische Universität Berlin
- Berlin-Buch Campus (con molti istituti di ricerca biomedica)
Parigi, Francia:
- Sorbonne Université
- Université PSL (Paris Sciences et Lettres: École Normale Supérieure, Collège de France, Dauphine, ecc.)
- Université Paris Cité
- École Polytechnique
- Sciences Po
- Institut Pasteur
Silicon Valley, California, USA:
- Stanford University
- University of California, Berkeley (UC Berkeley)
- Santa Clara University
- San Jose State University
Bangalore, India:
- Indian Institute of Science (IISc)
- Indian Institute of Management Bangalore (IIMB)
- National Institute of Fashion Technology Bangalore (NIFT)
ed ecco che, guarda caso, abbiamo preso quasi tutta la parte “alta” della classifica internazionale. Quindi, a quanto pare, il clustering geografico sembra fondamentale.
Interessante che non ci siano cluster cinesi, viene il dubbio che loro ce la facciano da soli.
Perché la clusterizzazione è così cruciale? La risposta sta nella natura stessa del ranking del CWUR, che, come abbiamo visto, assegna ben il 75% del punteggio complessivo a fattori legati alla pubblicazione scientifica, all’influenza dei papers e ai riconoscimenti accademici.
È evidente che quando ci troviamo in un’area geografica densamente popolata da università – come nel raggio di 100 chilometri intorno a Boston, ad esempio – il livello di networking e collaborazione tra gli atenei e i loro docenti cresce in maniera esponenziale. In questi cluster accademici, i professori spesso insegnano in più università, partecipano a conferenze comuni, collaborano su progetti di ricerca e hanno accesso diretto alle principali riviste scientifiche.
Ma non basta pubblicare un paper: per essere citato e diventare influente, il paper deve essere sottoposto a una peer review positiva. E qui entra in gioco un meccanismo informale ma decisivo: la possibilità di alzare il telefono e dire al collega di un altro ateneo, “Ehi Joe, ho appena completato un paper: potresti dargli un’occhiata per la revisione? Ricambierò volentieri in futuro”. Questo tipo di reciprocità e di collaborazione trasversale è un moltiplicatore formidabile della produttività scientifica.
Allo stesso modo, la concentrazione di istituzioni accademiche in uno spazio relativamente ristretto crea un ecosistema in cui l’innovazione e la diffusione del sapere si alimentano continuamente. Non è un caso che le aree con la maggiore densità di università – come Boston, Londra o l’area di San Francisco – siano anche quelle che producono il più alto numero di pubblicazioni e, di conseguenza, dominano le classifiche.
Poco sorprendentemente, anche le riviste che pubblicano – e danno importanza – ai paper sono concentrate negli stessi cluster:
Boston/Cambridge (USA):
- The New England Journal of Medicine
- Cell (edito da Cell Press, che ha sede a Cambridge)
New York (USA):
- Nature Medicine
- Science Translational Medicine (edito dall'AAAS, con sede anche a Washington DC, ma forte presenza editoriale a NY)
Londra (Regno Unito):
- The Lancet
- Nature (sede europea a Londra)
Berlino e Monaco (Germania):
- Advanced Materials (Wiley-VCH, sede a Weinheim vicino a Francoforte ma editorialmente collegata a Berlino/Monaco)
- Angewandte Chemie (German Chemical Society, forte influenza editoriale tedesca)
Amsterdam (Paesi Bassi):
- The Lancet Neurology (Elsevier)
- Current Biology (Cell Press/Elsevier)
Oxford e Cambridge (Regno Unito):
- Quarterly Journal of Mathematics (Oxford University Press)
- Journal of Public Health (Oxford University Press)
San Francisco/Bay Area (USA):
- PLOS ONE (Public Library of Science, sede a San Francisco)
- JAMA Neurology (American Medical Association, ufficio editoriale secondario in California)
Parigi (Francia):
- Comptes Rendus Biologies (Accademia delle Scienze francese)
- European Physical Journal (Springer, sede a Parigi)
Tokyo (Giappone):
- Journal of the Physical Society of Japan
- Genes to Cells (scienze biologiche)
Pechino e Shanghai (Cina):
- Cell Research (Shanghai Institutes for Biological Sciences, CAS)
- National Science Review (Chinese Academy of Sciences)
Le classifiche universitarie internazionali, come quelle del CWUR, QS, THE, ARWU, ecc., si basano su criteri apparentemente oggettivi (pubblicazioni, citazioni, premi, reputazione, ecc.), ma il networking personale e istituzionale gioca un ruolo fondamentale nei risultati ottenuti dalle università e dai singoli ricercatori.
Perché il networking conta così tanto
Collaborazioni e co-autorship
Le università con una forte concentrazione di talenti e risorse attraggono ricercatori di alto livello, facilitano collaborazioni interdisciplinari e internazionali e producono più facilmente lavori di grande impatto.Peer review e pubblicazione
Avere una rete di conoscenze accademiche aumenta le probabilità che i propri lavori vengano valutati da colleghi aperti e competenti, e che trovino spazio in riviste di prestigio (che spesso hanno anche redazioni e revisori legati ai grandi atenei).Citazioni e visibilità
Se lavori in un ambiente dove ci sono molti altri ricercatori di spicco, è più probabile che il tuo lavoro venga letto, citato e discusso, aumentando l’impatto della tua ricerca.Accesso a finanziamenti e risorse
Le università più “connesse” hanno più facilità a ottenere fondi pubblici e privati, a partecipare a progetti internazionali e a promuovere i propri risultati.
Effetti sulle classifiche
- Effetto “club esclusivo”: I grandi atenei tendono a restare ai vertici perché attraggono e trattengono i migliori talenti, che a loro volta generano più pubblicazioni, citazioni e riconoscimenti.
- Barriere all’ingresso: Per università nuove o isolate è molto difficile scalare le classifiche, proprio perché manca la rete di relazioni che facilita la crescita accademica e la visibilità internazionale.
Conclusione
Le classifiche universitarie non misurano solo la qualità intrinseca della ricerca o della didattica, ma anche la capacità delle istituzioni (e dei singoli ricercatori) di inserirsi in reti accademiche globali.
In altre parole, il networking è uno dei fattori chiave del successo accademico e, indirettamente, anche delle classifiche.
È possibile, dunque, “drogare” questa classifica in modo poco percettibile? La risposta è: certo che sì. Basta guardare alla struttura dei ranking stessi.
Immaginiamo di dividere l’Italia in tre grandi cluster: Centro, Nord e Sud. Con gli strumenti del Ministero e delle politiche di finanziamento pubblico, si potrebbero incentivare esclusivamente progetti di ricerca interuniversitari, premiando quelli che coinvolgono più atenei contemporaneamente. Parallelamente, si potrebbe finanziare la mobilità di studenti, dottorandi e docenti, creando una vera e propria rete accademica. Si sosterrebbero in modo preferenziale anche le pubblicazioni su riviste scientifiche “locali”, cioè pertinenti al cluster stesso.
In una decina o ventina d’anni, questi tre cluster diventerebbero altrettanto dominanti e competitivi a livello internazionale. Il tutto senza modificare sostanzialmente la qualità della didattica: perché i parametri usati dal CWUR e da ranking simili si basano interamente su paper, peer review e riconoscimenti accademici, non sulla qualità delle lezioni in aula. Questi indicatori, una volta alimentati con finanziamenti e collaborazioni incrociate, possono crescere quasi artificialmente e generare un “effetto domino” nella reputazione e nel posizionamento globale.
Eppure, è qui che emerge la contraddizione: questi interventi strutturali, per quanto potenzialmente benefici per l’ecosistema della ricerca, non hanno nulla a che fare con la qualità dell’insegnamento. È vero, forse una riforma di questo tipo migliorerebbe un po’ la cultura accademica italiana, troppo spesso chiusa e autoreferenziale. Ma gli effetti concreti sulla didattica resterebbero, nella migliore delle ipotesi, secondari.
Per questo motivo, è bene prendere atto di un fatto: ranking e qualità dell’insegnamento, se misurati con questi strumenti, possono divergere per ragioni puramente geografiche e sistemiche. E la retorica dei “primi posti in classifica” non sempre riflette ciò che davvero conta per chi studia.
il Preside della Divina Scuola di Hokuto, Stroboscopico [inserire qui altri ego-aggettivi a cazzo, tipo “magnifico” o “chiarissimo” ] Tecnovescovo,
Uriel Fanelli
Il blog e' visibile dal Fediverso facendo il follow a: @uriel@keinpfusch.net
Contatti:
- Fediverse: @uriel@x.keinpfusch.net
- XMPP/Jabber: uriel@mtrx.keinpfusch.net
- GNU JAMI: ufanelli